🚀 BERT-Medium在SQuAD v2上微调模型
该模型由Google Research创建的BERT-Medium,并在数据集SQuAD 2.0上进行微调,用于问答下游任务。
模型大小(训练后):157.46 MB
✨ 主要特性
BERT-Small及其“家族”详情(来自其文档)
该模型于2020年3月11日发布,是24个较小的BERT模型(仅英文,无大小写区分,使用WordPiece掩码训练)的一部分,相关内容参考论文《Well-Read Students Learn Better: On the Importance of Pre-training Compact Models》。
这些较小的BERT模型适用于计算资源受限的环境,它们可以像原始BERT模型一样进行微调。不过,在知识蒸馏的场景下它们最为有效,即微调标签由更大、更准确的“教师”模型生成。
下游任务(问答)详情 - 数据集
SQuAD2.0将SQuAD1.1中的100,000个问题与众包工作者对抗性编写的50,000多个无法回答的问题(这些问题看起来与可回答的问题相似)相结合。要在SQuAD2.0上表现良好,系统不仅要在可能的情况下回答问题,还要判断段落中何时没有支持答案的信息并避免作答。
数据集 |
划分 |
样本数量 |
SQuAD2.0 |
训练集 |
130k |
SQuAD2.0 |
评估集 |
12.3k |
📦 安装指南
该模型在Tesla P100 GPU和25GB RAM上进行训练,微调脚本可在此处找到。
📚 详细文档
结果
指标 |
值 |
精确匹配率(EM) |
65.95 |
F1分数 |
70.11 |
训练脚本中基准测试的原始指标
{
"exact": 65.95637159942727,
"f1": 70.11632254245896,
"total": 11873,
"HasAns_exact": 67.79689608636977,
"HasAns_f1": 76.12872765631123,
"HasAns_total": 5928,
"NoAns_exact": 64.12111017661901,
"NoAns_f1": 64.12111017661901,
"NoAns_total": 5945,
"best_exact": 65.96479407058031,
"best_exact_thresh": 0.0,
"best_f1": 70.12474501361196,
"best_f1_thresh": 0.0
}
模型对比
💻 使用示例
基础用法
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mrm8488/bert-small-finetuned-squadv2",
tokenizer="mrm8488/bert-small-finetuned-squadv2"
)
qa_pipeline({
'context': "Manuel Romero has been working hardly in the repository hugginface/transformers lately",
'question': "Who has been working hard for hugginface/transformers lately?"
})
{
"answer": "Manuel Romero",
"end": 13,
"score": 0.9939319924374637,
"start": 0
}
高级用法
qa_pipeline({
'context': "Manuel Romero has been working remotely in the repository hugginface/transformers lately",
'question': "How has been working Manuel Romero?"
})
{ "answer": "remotely", "end": 39, "score": 0.3612058272768017, "start": 31 }
运行成功!🎉🎉🎉
由Manuel Romero/@mrm8488创建 | 领英
于西班牙用心打造 ♥