🚀 bert-large-uncased-whole-word-maskingモデルをSQuAD v2でファインチューニング
このモデルは、nn_pruning Pythonライブラリを使用して作成されました。線形層は元の重みの25.0% を含んでいます。
モデル全体では、元の重みの 32.0% を保持しています(埋め込み層はモデルの重要な部分を占めており、この方法では剪定されません)。
線形行列を単純にリサイズすることで、評価時に bert-large-uncased-whole-word-masking の 2.15倍の速度 で実行されます。これは、剪定方法によって構造化された行列が生成されるため可能です。各行列の非ゼロ/ゼロ部分を確認するには、下のプロット上にマウスをホバーさせてください。
精度に関しては、F1値が83.22 で、bert-large-uncased-whole-word-maskingの85.85と比較すると、F1値が2.63低下 しています。
✨ 主な機能
微細剪定の詳細
このモデルは、HuggingFaceのモデルチェックポイントを SQuAD2.0でファインチューニングし、madlag/bert-large-uncased-whole-word-masking-finetuned-squadv2モデルから知識蒸留したものです。
このモデルは大文字小文字を区別しません。つまり、「english」と「English」は同じとみなされます。
ブロック剪定の副作用として、一部のアテンションヘッドが完全に削除されます。合計384個のヘッドのうち、155個(40.4%)が削除されています。
以下は、剪定後のネットワーク内での残りのヘッドの分布の詳細です。
SQuAD1.1データセットの詳細
データセット |
分割 |
サンプル数 |
SQuAD 2.0 |
学習 |
130.0K |
SQuAD 2.0 |
評価 |
11.9k |
ファインチューニング
CPU: Intel(R) Core(TM) i7-6700K CPU
メモリ: 64 GiB
GPU: 1 GeForce GTX 3090(24GiBメモリ)
GPUドライバー: 455.23.05、CUDA: 11.1
結果
Pytorchモデルファイルサイズ: 1119MB
(元のBERT: 1228.0MB
)
指標 |
値 |
元の値(表2) |
変化 |
EM |
80.19 |
82.83 |
-3.64 |
F1 |
83.22 |
85.85 |
-2.63 |
{
"HasAns_exact": 76.48448043184885,
"HasAns_f1": 82.55514100819374,
"HasAns_total": 5928,
"NoAns_exact": 83.8856181665265,
"NoAns_f1": 83.8856181665265,
"NoAns_total": 5945,
"best_exact": 80.19034784805862,
"best_exact_thresh": 0.0,
"best_f1": 83.22133208932635,
"best_f1_thresh": 0.0,
"exact": 80.19034784805862,
"f1": 83.22133208932645,
"total": 11873
}
📦 インストール
nn_pruning
をインストールします。これには最適化スクリプトが含まれており、空の行/列を削除することで線形層をより小さなものにパックします。
pip install nn_pruning
💻 使用例
基本的な使用法
from transformers import pipeline
from nn_pruning.inference_model_patcher import optimize_model
qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-large-uncased-wwm-squadv2-x2.15-f83.2-d25-hybrid-v1",
tokenizer="madlag/bert-large-uncased-wwm-squadv2-x2.15-f83.2-d25-hybrid-v1"
)
print("bert-large-uncased-whole-word-masking parameters: 497.0M")
print(f"Parameters count (includes only head pruning, not feed forward pruning)={int(qa_pipeline.model.num_parameters() / 1E6)}M")
qa_pipeline.model = optimize_model(qa_pipeline.model, "dense")
print(f"Parameters count after complete optimization={int(qa_pipeline.model.num_parameters() / 1E6)}M")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
'question': "Who is Frederic Chopin?",
})
print("Predictions", predictions)
📄 ライセンス
このモデルはMITライセンスの下で提供されています。