D

Distilbert Base Uncased

由distilbert開發
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
下載量 11.1M
發布時間 : 3/2/2022

模型概述

基於Transformer架構的輕量級語言模型,通過知識蒸餾技術從BERT基礎模型壓縮而來,支持英語文本理解任務。

模型特點

高效蒸餾
通過知識蒸餾技術保留BERT-base 97%的性能,同時模型體積減少40%
快速推理
相比原始BERT模型,推理速度提升60%
多任務適應
支持下游任務的微調,適用於多種自然語言處理場景

模型能力

文本特徵提取
掩碼詞彙預測
句子語義理解
文本分類
問答系統

使用案例

文本分析
情感分析
對評論內容進行積極/消極情感分類
在SST-2數據集準確率達91.3%
信息抽取
命名實體識別
從文本中識別人名、地點、組織等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase