D

Distilbart Mnli 12 6

由valhalla開發
DistilBart-MNLI 是 BART-large-MNLI 的蒸餾版本,採用無教師蒸餾技術,在保持高性能的同時顯著減小模型規模。
下載量 49.63k
發布時間 : 3/2/2022

模型概述

該模型是用於零樣本分類任務的蒸餾版本,基於 BART 架構,專門針對 MNLI(多類型自然語言推理)任務優化。

模型特點

高效蒸餾
採用無教師蒸餾技術,從 bart-large-mnli 中交替複製層,顯著減小模型規模
高性能保持
在 MNLI 任務上保持接近原始模型的準確率(匹配準確率 89.19%,不匹配準確率 89.01%)
多規格選擇
提供不同層數的蒸餾版本(12-1,12-3,12-6,12-9)以滿足不同性能需求

模型能力

零樣本分類
自然語言推理
文本分類

使用案例

文本分析
情感分析
無需微調即可對文本進行情感傾向分類
主題分類
對文檔內容進行自動分類
語義理解
文本蘊含判斷
判斷兩段文本之間的邏輯關係(蘊含/矛盾/中立)
在 MNLI 數據集上達到 89.19% 準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase