D

Distilbert Base Uncased Distilled Squad

Developed by distilbert
DistilBERT是BERT的輕量級蒸餾版本,參數量減少40%,速度提升60%,在GLUE基準測試中保持BERT 95%以上的性能。本模型專為問答任務微調。
Downloads 154.39k
Release Time : 3/2/2022

Model Overview

基於DistilBERT-base-uncased的微調模型,使用SQuAD v1.1數據集通過知識蒸餾訓練,適用於英語問答任務。

Model Features

高效輕量
相比原始BERT模型,參數量減少40%,推理速度提升60%
高性能
在GLUE基準測試中保持BERT 95%以上的性能表現
問答優化
專門針對SQuAD問答任務進行微調,在SQuAD v1.1上達到86.9 F1分數

Model Capabilities

抽取式問答
文本理解
答案定位

Use Cases

問答系統
基於文檔的問答
從給定文本中提取問題答案
在SQuAD v1.1數據集上達到86.9 F1分數
知識檢索
從知識庫中查找相關信息
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase