D

Distilbart Mnli 12 3

由valhalla開發
DistilBart-MNLI 是 bart-large-mnli 的蒸餾版本,採用無教師蒸餾技術,性能接近原模型但更輕量。
下載量 8,791
發布時間 : 3/2/2022

模型概述

該模型是基於 BART 架構的自然語言推理模型,專門用於零樣本分類任務,是 bart-large-mnli 的輕量級版本。

模型特點

無教師蒸餾技術
採用 Huggingface 提出的無教師蒸餾方法,通過交替複製層實現模型壓縮。
性能接近原模型
在 MNLI 數據集上表現優異,12-6 層版本匹配準確率達 89.19%,接近原模型的 89.9%。
多種配置可選
提供 12-1、12-3、12-6、12-9 等多種層數配置,滿足不同性能需求。

模型能力

自然語言推理
零樣本分類
文本蘊含識別

使用案例

文本分類
情感分析
無需微調即可對文本進行情感傾向分類
內容審核
有害內容識別
識別文本中的不當或有害內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase