🚀 BERT-base無大小寫區分模型在SQuAD v1上的微調版本
本模型解決了在問答任務中模型效率和準確性平衡的問題,通過剪枝技術在保證一定準確率的情況下,顯著提升了推理速度,為實際應用提供了更高效的解決方案。
🚀 快速開始
本模型使用 nn_pruning Python庫創建,線性層包含原權重的 27.0%。
⚠️ 重要提示
此模型必須使用nn_pruning的 optimize_model
函數,因為它使用NoNorms而非LayerNorms,目前Transformers庫不直接支持。
為加快推理速度,該模型使用ReLUs而非初始BERT網絡中的GeLUs。這無需特殊處理,因為Transformers庫支持此設置,並在模型配置中通過 "hidden_act": "relu"
條目標記。
模型整體包含原權重的 43.0%(嵌入層佔模型的很大一部分,且此方法未對其進行剪枝)。
在評估中,通過簡單調整線性矩陣大小,該模型的運行速度比bert-base-uncased快 1.96倍。這是因為剪枝方法生成了結構化矩陣,將鼠標懸停在下方的圖上,可查看每個矩陣的非零/零部分。
在準確率方面,其F1值為 88.33,而bert-base-uncased的F1值為 88.5,F1值下降了 0.17。
✨ 主要特性
- 剪枝優化:通過剪枝技術減少模型參數,提高推理速度。
- 速度提升:在評估中比bert-base-uncased快1.96倍。
- 準確率保持:F1值與bert-base-uncased接近,僅下降0.17。
📦 安裝指南
安裝nn_pruning,其中包含優化腳本,該腳本通過移除空行/列將線性層打包成更小的層。
pip install nn_pruning
💻 使用示例
基礎用法
from transformers import pipeline
from nn_pruning.inference_model_patcher import optimize_model
qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-base-uncased-squadv1-x1.96-f88.3-d27-hybrid-filled-opt-v1",
tokenizer="madlag/bert-base-uncased-squadv1-x1.96-f88.3-d27-hybrid-filled-opt-v1"
)
print("bert-base-uncased parameters: 191.0M")
print(f"Parameters count (includes only head pruning, not feed forward pruning)={int(qa_pipeline.model.num_parameters() / 1E6)}M")
qa_pipeline.model = optimize_model(qa_pipeline.model, "dense")
print(f"Parameters count after complete optimization={int(qa_pipeline.model.num_parameters() / 1E6)}M")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
'question': "Who is Frederic Chopin?",
})
print("Predictions", predictions)
📚 詳細文檔
精細剪枝細節
本模型從HuggingFace的 model 檢查點在 SQuAD1.1 上進行微調,並從模型 bert-large-uncased-whole-word-masking-finetuned-squad 進行蒸餾。
此模型不區分大小寫,即對 "english" 和 "English" 無區別對待。
塊剪枝的一個副作用是部分注意力頭被完全移除,在總共144個注意力頭中,有55個被移除(38.2%)。以下是剪枝後剩餘注意力頭在網絡中的詳細分佈情況。
SQuAD1.1數據集詳情
數據集 |
劃分 |
樣本數量 |
SQuAD1.1 |
訓練集 |
90.6K |
SQuAD1.1 |
評估集 |
11.1k |
微調信息
CPU: Intel(R) Core(TM) i7-6700K CPU
內存: 64 GiB
GPU: 1 GeForce GTX 3090,顯存24GiB
GPU驅動: 455.23.05,CUDA: 11.1
結果
Pytorch模型文件大小:374MB
(原始BERT:420MB
)
指標 |
值 |
原始值 (Table 2) |
變化 |
EM |
81.31 |
80.8 |
+0.51 |
F1 |
88.33 |
88.5 |
-0.17 |
📄 許可證
本項目採用MIT許可證。