D

Distilbart Mnli 12 9

由valhalla開發
DistilBart-MNLI 是通過無教師蒸餾技術從 bart-large-mnli 蒸餾得到的輕量級版本,保持了較高的準確率同時減少了模型複雜度。
下載量 8,343
發布時間 : 3/2/2022

模型概述

該模型主要用於零樣本分類任務,特別適用於自然語言推理(NLI)場景。它是 bart-large-mnli 的輕量級蒸餾版本,通過交替複製層結構並在相同數據上微調得到。

模型特點

高效蒸餾
採用無教師蒸餾技術,從 bart-large-mnli 中交替複製層結構,顯著減小模型規模
高性能保持
在 MNLI 數據集上保持了接近原始模型的準確率,性能下降極小
多版本選擇
提供不同層數的多個版本(12-1,12-3,12-6,12-9),可根據需求平衡性能與效率

模型能力

自然語言推理
零樣本分類
文本分類

使用案例

文本分析
情感分析
無需特定訓練即可對文本進行情感傾向分類
主題分類
對文本內容進行多類別主題分類
問答系統
問題理解
分析問題與候選答案的語義關係
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase