D

Distilbert Base Uncased Mnli

由typeform開發
DistilBERT是BERT的精簡版本,保留了BERT 97%的性能,同時體積減小40%,速度提升60%。
下載量 74.81k
發布時間 : 3/2/2022

模型概述

DistilBERT是基於BERT的輕量級模型,通過知識蒸餾技術訓練,適用於多種自然語言處理任務。

模型特點

輕量高效
相比原始BERT模型,體積減小40%,推理速度提升60%
高性能
保留BERT模型97%的性能表現
多任務支持
適用於多種自然語言處理任務

模型能力

文本分類
零樣本分類
自然語言理解

使用案例

文本分析
情感分析
分析文本的情感傾向
高準確率的情感分類
主題分類
將文本分類到預定義的類別中
客戶服務
意圖識別
識別用戶查詢的意圖
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase