D

Distilbert Base Uncased Distilled Squad

由distilbert開發
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,在GLUE基準測試中保持BERT 95%以上的性能。本模型專為問答任務微調。
下載量 154.39k
發布時間 : 3/2/2022

模型概述

基於DistilBERT-base-uncased的微調模型,使用SQuAD v1.1數據集通過知識蒸餾訓練,適用於英語問答任務。

模型特點

高效輕量
相比原始BERT模型,參數量減少40%,推理速度提升60%
高性能
在GLUE基準測試中保持BERT 95%以上的性能表現
問答優化
專門針對SQuAD問答任務進行微調,在SQuAD v1.1上達到86.9 F1分數

模型能力

抽取式問答
文本理解
答案定位

使用案例

問答系統
基於文檔的問答
從給定文本中提取問題答案
在SQuAD v1.1數據集上達到86.9 F1分數
知識檢索
從知識庫中查找相關信息
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase