D

Distilbert Mlm Best

由vocab-transformers開發
DistilBERT是BERT的輕量級蒸餾版本,保留了BERT 97%的性能,同時體積縮小40%,速度提升60%。
下載量 26
發布時間 : 4/2/2022

模型概述

DistilBERT是一種基於Transformer的預訓練語言模型,通過知識蒸餾技術從BERT模型壓縮而來。適用於文本分類、問答、命名實體識別等自然語言處理任務。

模型特點

高效輕量
相比原始BERT模型,體積縮小40%,推理速度提升60%
知識蒸餾
通過蒸餾技術保留了BERT 97%的性能
多功能性
支持多種下游NLP任務,包括分類、問答和NER

模型能力

文本理解
文本分類
問答系統
命名實體識別
語義相似度計算

使用案例

文本分析
情感分析
分析用戶評論的情感傾向
在IMDb數據集上達到90%以上的準確率
垃圾郵件檢測
識別和過濾垃圾郵件內容
信息提取
命名實體識別
從文本中提取人名、地名、組織名等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase