🚀 BERT-base uncased model fine-tuned on SQuAD v1
このモデルは、質問応答タスクに特化したモデルです。SQuAD v1データセットでファインチューニングされ、元のBERT-base uncasedモデルを最適化して高速化と精度向上を実現しています。
🚀 クイックスタート
このモデルを使用するには、まずnn_pruning
をインストールします。その後、transformers
ライブラリを使って通常通りパイプラインを構築し、optimize_model
を呼び出すことで最適化されたモデルを使用できます。
✨ 主な機能
- 高速化: 線形層の最適化により、評価時には元のモデルの1.84倍の速度で実行されます。
- 精度向上: F1スコアが88.72と、元のモデルよりも0.22向上しています。
- パラメータ削減: 全体で元の重みの50.0%を保持しており、モデルサイズが削減されています。
📦 インストール
nn_pruning
をインストールするには、以下のコマンドを実行します。
pip install nn_pruning
💻 使用例
基本的な使用法
from transformers import pipeline
from nn_pruning.inference_model_patcher import optimize_model
qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-base-uncased-squadv1-x1.84-f88.7-d36-hybrid-filled-v1",
tokenizer="madlag/bert-base-uncased-squadv1-x1.84-f88.7-d36-hybrid-filled-v1"
)
print("/home/lagunas/devel/hf/nn_pruning/nn_pruning/analysis/tmp_finetune parameters: 218.0M")
print(f"Parameters count (includes only head pruning, not feed forward pruning)={int(qa_pipeline.model.num_parameters() / 1E6)}M")
qa_pipeline.model = optimize_model(qa_pipeline.model, "dense")
print(f"Parameters count after complete optimization={int(qa_pipeline.model.num_parameters() / 1E6)}M")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
'question': "Who is Frederic Chopin?",
})
print("Predictions", predictions)
📚 ドキュメント
モデルの詳細
このモデルは、nn_pruning Pythonライブラリを使用して作成されました。線形層は元の重みの36.0%を保持しており、全体で元の重みの50.0%を保持しています。評価時には、密なモデルの1.84倍の速度で実行され、F1スコアは88.72です。
ファインチューニングの詳細
このモデルは、HuggingFaceのモデルチェックポイントをSQuAD1.1でファインチューニングし、csarron/bert-base-uncased-squad-v1モデルから知識蒸留を行っています。
SQuAD1.1データセットの詳細
データセット |
分割 |
サンプル数 |
SQuAD1.1 |
学習 |
90.6K |
SQuAD1.1 |
評価 |
11.1k |
ファインチューニングの環境
CPU: Intel(R) Core(TM) i7-6700K CPU
Memory: 64 GiB
GPUs: 1 GeForce GTX 3090, with 24GiB memory
GPU driver: 455.23.05, CUDA: 11.1
結果
Pytorchモデルファイルサイズ: 379MB
(元のBERT: 420MB
)
メトリック |
値 |
元の値 (Table 2) |
変化 |
EM |
81.69 |
80.8 |
+0.89 |
F1 |
88.72 |
88.5 |
+0.22 |
🔧 技術詳細
このモデルの最適化には、構造化行列を生成する剪定手法が用いられています。これにより、線形行列のサイズを調整するだけで高速化が実現できます。また、ブロック剪定により一部のアテンションヘッドが削除されています。
📄 ライセンス
このモデルはMITライセンスの下で公開されています。