D

Distilbert Base Cased Distilled Squad

由distilbert開發
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,保留95%以上性能。本模型是在SQuAD v1.1數據集上微調的問答專用版本。
下載量 220.76k
發布時間 : 3/2/2022

模型概述

基於Transformer的輕量級英語問答模型,適用於從給定文本中提取答案的抽取式問答任務。

模型特點

高效輕量
通過知識蒸餾技術,模型體積比原始BERT減少40%,推理速度提升60%
高性能
在SQuAD v1.1驗證集上達到87.1的F1分數,接近原始BERT 88.7的表現
專注問答
專門針對抽取式問答任務優化,可直接用於問答系統開發

模型能力

文本理解
問答提取
上下文分析

使用案例

教育科技
自動答題系統
從教材或參考資料中自動提取問題答案
在SQuAD基準測試中達到87.1 F1分數
客戶服務
FAQ自動應答
從知識庫文檔中快速定位問題答案
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase