D

Distilbert Mlm 1000k

由vocab-transformers開發
DistilBERT是BERT的輕量級蒸餾版本,保留了BERT 97%的性能,同時體積縮小40%,速度提升60%。
下載量 26
發布時間 : 4/2/2022

模型概述

DistilBERT是一種基於Transformer的預訓練語言模型,通過知識蒸餾技術從BERT模型壓縮而來。適用於文本分類、問答、命名實體識別等自然語言處理任務。

模型特點

高效輕量
相比原始BERT模型,體積縮小40%,推理速度提升60%,適合資源受限環境部署
高性能
保留BERT模型97%的性能,在多項NLP基準測試中表現優異
多任務適應
支持多種下游NLP任務微調,包括文本分類、問答和命名實體識別

模型能力

文本理解
文本分類
問答系統
命名實體識別
語義相似度計算

使用案例

文本分析
情感分析
分析社交媒體或評論中的情感傾向
準確率可達90%以上
垃圾郵件檢測
識別電子郵件或消息中的垃圾內容
信息提取
命名實體識別
從文本中提取人名、地名、組織名等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase