作者:黃建宇
被審核: Raghuraman Krishnamoorthi
由編輯:林 ess 琳
在本教程中,我們將動態(tài)量化應用在 BERT 模型上,緊跟 HuggingFace Transformers 示例中的 BERT 模型。 通過這一循序漸進的過程,我們將演示如何將 BERT 等眾所周知的最新模型轉換為動態(tài)量化模型。
要開始本教程,首先請遵循 PyTorch (此處)和 HuggingFace Github Repo (此處)中的安裝說明。 此外,我們還將安裝 scikit-learn 軟件包,因為我們將重復使用其內置的 F1 分數(shù)計算幫助器功能。
pip install sklearn
pip install transformers
由于我們將使用 PyTorch 的實驗部分,因此建議安裝最新版本的 Torch 和 Torchvision。 您可以在此處找到有關本地安裝的最新說明。 例如,要在 Mac 上安裝:
yes y | pip uninstall torch tochvision
yes y | pip install --pre torch -f https://download.pytorch.org/whl/nightly/cu101/torch_nightly.html
在這一步中,我們將導入本教程所需的 Python 模塊。
from __future__ import absolute_import, division, print_function
import logging
import numpy as np
import os
import random
import sys
import time
import torch
from argparse import Namespace
from torch.utils.data import (DataLoader, RandomSampler, SequentialSampler,
TensorDataset)
from tqdm import tqdm
from transformers import (BertConfig, BertForSequenceClassification, BertTokenizer,)
from transformers import glue_compute_metrics as compute_metrics
from transformers import glue_output_modes as output_modes
from transformers import glue_processors as processors
from transformers import glue_convert_examples_to_features as convert_examples_to_features
## Setup logging
logger = logging.getLogger(__name__)
logging.basicConfig(format = '%(asctime)s - %(levelname)s - %(name)s - %(message)s',
datefmt = '%m/%d/%Y %H:%M:%S',
level = logging.WARN)
logging.getLogger("transformers.modeling_utils").setLevel(
logging.WARN) # Reduce logging
print(torch.__version__)
我們設置線程數(shù)以比較 FP32 和 INT8 性能之間的單線程性能。 在本教程的最后,用戶可以通過使用右側并行后端構建 PyTorch 來設置其他線程數(shù)量。
torch.set_num_threads(1)
print(torch.__config__.parallel_info())
幫助器功能內置在轉換器庫中。 我們主要使用以下輔助函數(shù):一個用于將文本示例轉換為特征向量的函數(shù); 另一個用于測量預測結果的 F1 分數(shù)。
gum_convert_examples_to_features 函數(shù)將文本轉換為輸入特征:
gum_compute_metrics 函數(shù)的計算指標為 F1 得分,可以將其解釋為精度和召回率的加權平均值,其中 F1 得分在 1 和最差處達到最佳值 得分為 0。精度和召回率對 F1 得分的相對貢獻相等。
在運行 MRPC 任務之前,我們通過運行腳本并下載 GLUE 數(shù)據(jù)并將其解壓縮到目錄glue_data
中。
python download_glue_data.py --data_dir='glue_data' --tasks='MRPC'
BERT 的精神是預訓練語言表示形式,然后以最小的任務相關參數(shù)對各種任務上的深層雙向表示形式進行微調,并獲得最新的結果。 在本教程中,我們將專注于對預訓練的 BERT 模型進行微調,以對 MRPC 任務上的語義等效句子對進行分類。
要為 MRPC 任務微調預訓練的 BERT 模型(HuggingFace 變壓器中的bert-base-uncased
模型),可以按照示例中的命令進行操作:
export GLUE_DIR=./glue_data
export TASK_NAME=MRPC
export OUT_DIR=./$TASK_NAME/
python ./run_glue.py \
--model_type bert \
--model_name_or_path bert-base-uncased \
--task_name $TASK_NAME \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $GLUE_DIR/$TASK_NAME \
--max_seq_length 128 \
--per_gpu_eval_batch_size=8 \
--per_gpu_train_batch_size=8 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \
--save_steps 100000 \
--output_dir $OUT_DIR
我們在此處為 MRPC 任務提供了經過微調的 BERT 模型。 為了節(jié)省時間,您可以將模型文件(?400 MB)直接下載到本地文件夾$OUT_DIR
中。
在這里,我們設置了全局配置,用于評估動態(tài)量化前后的微調 BERT 模型。
configs = Namespace()
## The output directory for the fine-tuned model, $OUT_DIR.
configs.output_dir = "./MRPC/"
## The data directory for the MRPC task in the GLUE benchmark, $GLUE_DIR/$TASK_NAME.
configs.data_dir = "./glue_data/MRPC"
## The model name or path for the pre-trained model.
configs.model_name_or_path = "bert-base-uncased"
## The maximum length of an input sequence
configs.max_seq_length = 128
## Prepare GLUE task.
configs.task_name = "MRPC".lower()
configs.processor = processors[configs.task_name]()
configs.output_mode = output_modes[configs.task_name]
configs.label_list = configs.processor.get_labels()
configs.model_type = "bert".lower()
configs.do_lower_case = True
## Set the device, batch size, topology, and caching flags.
configs.device = "cpu"
configs.per_gpu_eval_batch_size = 8
configs.n_gpu = 0
configs.local_rank = -1
configs.overwrite_cache = False
## Set random seed for reproducibility.
def set_seed(seed):
random.seed(seed)
np.random.seed(seed)
torch.manual_seed(seed)
set_seed(42)
我們從configs.output_dir
加載標記器和經過微調的 BERT 序列分類器模型(FP32)。
tokenizer = BertTokenizer.from_pretrained(
configs.output_dir, do_lower_case=configs.do_lower_case)
model = BertForSequenceClassification.from_pretrained(configs.output_dir)
model.to(configs.device)
我們重用了 Huggingface 中的標記化和評估函數(shù)。
## coding=utf-8
## Copyright 2018 The Google AI Language Team Authors and The HuggingFace Inc. team.
## Copyright (c) 2018, NVIDIA CORPORATION. All rights reserved.
## ## Licensed under the Apache License, Version 2.0 (the "License");
## you may not use this file except in compliance with the License.
## You may obtain a copy of the License at
## ## http://www.apache.org/licenses/LICENSE-2.0
## ## Unless required by applicable law or agreed to in writing, software
## distributed under the License is distributed on an "AS IS" BASIS,
## WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
## See the License for the specific language governing permissions and
## limitations under the License.
def evaluate(args, model, tokenizer, prefix=""):
# Loop to handle MNLI double evaluation (matched, mis-matched)
eval_task_names = ("mnli", "mnli-mm") if args.task_name == "mnli" else (args.task_name,)
eval_outputs_dirs = (args.output_dir, args.output_dir + '-MM') if args.task_name == "mnli" else (args.output_dir,)
results = {}
for eval_task, eval_output_dir in zip(eval_task_names, eval_outputs_dirs):
eval_dataset = load_and_cache_examples(args, eval_task, tokenizer, evaluate=True)
if not os.path.exists(eval_output_dir) and args.local_rank in [-1, 0]:
os.makedirs(eval_output_dir)
args.eval_batch_size = args.per_gpu_eval_batch_size * max(1, args.n_gpu)
# Note that DistributedSampler samples randomly
eval_sampler = SequentialSampler(eval_dataset) if args.local_rank == -1 else DistributedSampler(eval_dataset)
eval_dataloader = DataLoader(eval_dataset, sampler=eval_sampler, batch_size=args.eval_batch_size)
# multi-gpu eval
if args.n_gpu > 1:
model = torch.nn.DataParallel(model)
# Eval!
logger.info("***** Running evaluation {} *****".format(prefix))
logger.info(" Num examples = %d", len(eval_dataset))
logger.info(" Batch size = %d", args.eval_batch_size)
eval_loss = 0.0
nb_eval_steps = 0
preds = None
out_label_ids = None
for batch in tqdm(eval_dataloader, desc="Evaluating"):
model.eval()
batch = tuple(t.to(args.device) for t in batch)
with torch.no_grad():
inputs = {'input_ids': batch[0],
'attention_mask': batch[1],
'labels': batch[3]}
if args.model_type != 'distilbert':
inputs['token_type_ids'] = batch[2] if args.model_type in ['bert', 'xlnet'] else None # XLM, DistilBERT and RoBERTa don't use segment_ids
outputs = model(**inputs)
tmp_eval_loss, logits = outputs[:2]
eval_loss += tmp_eval_loss.mean().item()
nb_eval_steps += 1
if preds is None:
preds = logits.detach().cpu().numpy()
out_label_ids = inputs['labels'].detach().cpu().numpy()
else:
preds = np.append(preds, logits.detach().cpu().numpy(), axis=0)
out_label_ids = np.append(out_label_ids, inputs['labels'].detach().cpu().numpy(), axis=0)
eval_loss = eval_loss / nb_eval_steps
if args.output_mode == "classification":
preds = np.argmax(preds, axis=1)
elif args.output_mode == "regression":
preds = np.squeeze(preds)
result = compute_metrics(eval_task, preds, out_label_ids)
results.update(result)
output_eval_file = os.path.join(eval_output_dir, prefix, "eval_results.txt")
with open(output_eval_file, "w") as writer:
logger.info("***** Eval results {} *****".format(prefix))
for key in sorted(result.keys()):
logger.info(" %s = %s", key, str(result[key]))
writer.write("%s = %s\n" % (key, str(result[key])))
return results
def load_and_cache_examples(args, task, tokenizer, evaluate=False):
if args.local_rank not in [-1, 0] and not evaluate:
torch.distributed.barrier() # Make sure only the first process in distributed training process the dataset, and the others will use the cache
processor = processors[task]()
output_mode = output_modes[task]
# Load data features from cache or dataset file
cached_features_file = os.path.join(args.data_dir, 'cached_{}_{}_{}_{}'.format(
'dev' if evaluate else 'train',
list(filter(None, args.model_name_or_path.split('/'))).pop(),
str(args.max_seq_length),
str(task)))
if os.path.exists(cached_features_file) and not args.overwrite_cache:
logger.info("Loading features from cached file %s", cached_features_file)
features = torch.load(cached_features_file)
else:
logger.info("Creating features from dataset file at %s", args.data_dir)
label_list = processor.get_labels()
if task in ['mnli', 'mnli-mm'] and args.model_type in ['roberta']:
# HACK(label indices are swapped in RoBERTa pretrained model)
label_list[1], label_list[2] = label_list[2], label_list[1]
examples = processor.get_dev_examples(args.data_dir) if evaluate else processor.get_train_examples(args.data_dir)
features = convert_examples_to_features(examples,
tokenizer,
label_list=label_list,
max_length=args.max_seq_length,
output_mode=output_mode,
pad_on_left=bool(args.model_type in ['xlnet']), # pad on the left for xlnet
pad_token=tokenizer.convert_tokens_to_ids([tokenizer.pad_token])[0],
pad_token_segment_id=4 if args.model_type in ['xlnet'] else 0,
)
if args.local_rank in [-1, 0]:
logger.info("Saving features into cached file %s", cached_features_file)
torch.save(features, cached_features_file)
if args.local_rank == 0 and not evaluate:
torch.distributed.barrier() # Make sure only the first process in distributed training process the dataset, and the others will use the cache
# Convert to Tensors and build dataset
all_input_ids = torch.tensor([f.input_ids for f in features], dtype=torch.long)
all_attention_mask = torch.tensor([f.attention_mask for f in features], dtype=torch.long)
all_token_type_ids = torch.tensor([f.token_type_ids for f in features], dtype=torch.long)
if output_mode == "classification":
all_labels = torch.tensor([f.label for f in features], dtype=torch.long)
elif output_mode == "regression":
all_labels = torch.tensor([f.label for f in features], dtype=torch.float)
dataset = TensorDataset(all_input_ids, all_attention_mask, all_token_type_ids, all_labels)
return dataset
我們在模型上調用torch.quantization.quantize_dynamic
,將動態(tài)量化應用于 HuggingFace BERT 模型。 特別,
quantized_model = torch.quantization.quantize_dynamic(
model, {torch.nn.Linear}, dtype=torch.qint8
)
print(quantized_model)
我們首先檢查一下模型尺寸。 我們可以看到模型大小顯著減少(FP32 總大?。?38 MB; INT8 總大小:181 MB):
def print_size_of_model(model):
torch.save(model.state_dict(), "temp.p")
print('Size (MB):', os.path.getsize("temp.p")/1e6)
os.remove('temp.p')
print_size_of_model(model)
print_size_of_model(quantized_model)
本教程中使用的 BERT 模型(bert-base-uncased
)的詞匯量 V 為 30522。在嵌入量為 768 的情況下,單詞嵌入表的總大小為?4(字節(jié)/ FP32) 30522 768 = 90 MB 。 因此,借助量化,非嵌入表部分的模型大小從 350 MB(FP32 模型)減少到 90 MB(INT8 模型)。
接下來,我們比較一下動態(tài)量化后原始 FP32 模型和 INT8 模型之間的推斷時間以及評估精度。
def time_model_evaluation(model, configs, tokenizer):
eval_start_time = time.time()
result = evaluate(configs, model, tokenizer, prefix="")
eval_end_time = time.time()
eval_duration_time = eval_end_time - eval_start_time
print(result)
print("Evaluate total time (seconds): {0:.1f}".format(eval_duration_time))
## Evaluate the original FP32 BERT model
time_model_evaluation(model, configs, tokenizer)
## Evaluate the INT8 BERT model after the dynamic quantization
time_model_evaluation(quantized_model, configs, tokenizer)
在 MacBook Pro 上本地運行此程序,無需進行量化,推理(對于 MRPC 數(shù)據(jù)集中的所有 408 個示例)大約需要 160 秒,而進行量化則只需大約 90 秒。 我們總結了在 Macbook Pro 上運行量化 BERT 模型推斷的結果,如下所示:
| Prec | F1 score | Model Size | 1 thread | 4 threads |
| FP32 | 0.9019 | 438 MB | 160 sec | 85 sec |
| INT8 | 0.8953 | 181 MB | 90 sec | 46 sec |
在 MRPC 任務的微調 BERT 模型上應用訓練后動態(tài)量化后,我們的 F1 分數(shù)準確性為 0.6%。 作為比較,在的最新論文(表 1)中,通過應用訓練后動態(tài)量化,可以達到 0.8788;通過應用量化感知訓練,可以達到 0.8956。 主要區(qū)別在于我們在 PyTorch 中支持非對稱量化,而該論文僅支持對稱量化。
請注意,在本教程中,為了進行單線程比較,我們將線程數(shù)設置為 1。 對于這些量化的 INT8 運算符,我們還支持運算內并行化。 用戶現(xiàn)在可以通過torch.set_num_threads(N)
設置多線程(N
是內部運算并行線程的數(shù)量)。 啟用幀內并行支持的一項初步要求是使用正確的后端(例如 OpenMP,Native 或 TBB)構建 PyTorch。 您可以使用torch.__config__.parallel_info()
檢查并行化設置。 在使用 PyTorch 和本機后端進行并行化的同一臺 MacBook Pro 上,我們可以獲得大約 46 秒的時間來處理 MRPC 數(shù)據(jù)集的評估。
我們可以序列化并保存量化模型,以備將來使用。
quantized_output_dir = configs.output_dir + "quantized/"
if not os.path.exists(quantized_output_dir):
os.makedirs(quantized_output_dir)
quantized_model.save_pretrained(quantized_output_dir)
在本教程中,我們演示了如何演示如何將 BERT 等著名的最新 NLP 模型轉換為動態(tài)量化模型。 動態(tài)量化可以減小模型的大小,而對準確性的影響有限。
謝謝閱讀! 與往常一樣,我們歡迎您提供任何反饋,因此,如果有任何問題,請在此處創(chuàng)建一個問題。
[1] J.Devlin,M。Chang,K。Lee 和 K. Toutanova, BERT:用于語言理解的深度雙向變壓器的預訓練(2018)。
[2] HuggingFace 變壓器。
[3] O. Zafrir,G。Boudoukh,P。Izsak 和 M. Wasserblat(2019 年)。 Q8BERT:量化的 8 位 BERT 。
更多建議: