🚀 BERT-base无大小写区分模型在SQuAD v1上微调
本项目是一个基于BERT-base无大小写区分模型在SQuAD v1数据集上进行微调的问答系统。通过使用特定的剪枝技术,在保证模型性能的同时,显著提升了模型的推理速度。
✨ 主要特性
- 高效推理:通过剪枝技术,模型在评估时的运行速度比密集模型快1.84倍。
- 性能提升:与密集版本相比,F1分数提高了0.22,达到了88.72。
- 参数减少:线性层仅保留了原权重的36.0%,整体模型保留了原权重的50.0%。
📦 安装指南
安装nn_pruning
库,其中包含优化脚本,可通过移除空行/列将线性层打包成更小的矩阵。
pip install nn_pruning
💻 使用示例
基础用法
from transformers import pipeline
from nn_pruning.inference_model_patcher import optimize_model
qa_pipeline = pipeline(
"question-answering",
model="madlag/bert-base-uncased-squadv1-x1.84-f88.7-d36-hybrid-filled-v1",
tokenizer="madlag/bert-base-uncased-squadv1-x1.84-f88.7-d36-hybrid-filled-v1"
)
print("/home/lagunas/devel/hf/nn_pruning/nn_pruning/analysis/tmp_finetune parameters: 218.0M")
print(f"Parameters count (includes only head pruning, not feed forward pruning)={int(qa_pipeline.model.num_parameters() / 1E6)}M")
qa_pipeline.model = optimize_model(qa_pipeline.model, "dense")
print(f"Parameters count after complete optimization={int(qa_pipeline.model.num_parameters() / 1E6)}M")
predictions = qa_pipeline({
'context': "Frédéric François Chopin, born Fryderyk Franciszek Chopin (1 March 1810 – 17 October 1849), was a Polish composer and virtuoso pianist of the Romantic era who wrote primarily for solo piano.",
'question': "Who is Frederic Chopin?",
})
print("Predictions", predictions)
📚 详细文档
模型信息
属性 |
详情 |
模型类型 |
BERT-base无大小写区分模型在SQuAD v1上微调 |
训练数据 |
SQuAD1.1 |
SQuAD1.1数据集详情
数据集 |
划分 |
样本数量 |
SQuAD1.1 |
训练集 |
90.6K |
SQuAD1.1 |
评估集 |
11.1K |
微调信息
CPU: Intel(R) Core(TM) i7-6700K CPU
内存: 64 GiB
GPU: 1 GeForce GTX 3090,显存24GiB
GPU驱动: 455.23.05,CUDA: 11.1
结果
Pytorch模型文件大小:379MB
(原始BERT:420MB
)
指标 |
值 |
原始值 (表2) |
变化 |
EM |
81.69 |
80.8 |
+0.89 |
F1 |
88.72 |
88.5 |
+0.22 |
🔧 技术细节
精细剪枝详情
本模型是从HuggingFace的模型检查点在SQuAD1.1上进行微调,并从模型csarron/bert-base-uncased-squad-v1进行蒸馏得到的。该模型不区分大小写,即对英文的大小写不做区分。
块剪枝的一个副作用是部分注意力头被完全移除:在总共144个注意力头中,有48个(33.3%)被移除。以下是剪枝后剩余注意力头在网络中的分布详情。
在评估时,通过对线性矩阵进行简单的调整,模型的运行速度比密集模型快1.84倍。这是因为剪枝方法产生了结构化矩阵,你可以将鼠标悬停在下面的图表上,查看每个矩阵的非零/零部分。
📄 许可证
本项目采用MIT许可证。