D

Distilbart Mnli 12 9

由 valhalla 开发
DistilBart-MNLI 是通过无教师蒸馏技术从 bart-large-mnli 蒸馏得到的轻量级版本,保持了较高的准确率同时减少了模型复杂度。
下载量 8,343
发布时间 : 3/2/2022

模型简介

该模型主要用于零样本分类任务,特别适用于自然语言推理(NLI)场景。它是 bart-large-mnli 的轻量级蒸馏版本,通过交替复制层结构并在相同数据上微调得到。

模型特点

高效蒸馏
采用无教师蒸馏技术,从 bart-large-mnli 中交替复制层结构,显著减小模型规模
高性能保持
在 MNLI 数据集上保持了接近原始模型的准确率,性能下降极小
多版本选择
提供不同层数的多个版本(12-1,12-3,12-6,12-9),可根据需求平衡性能与效率

模型能力

自然语言推理
零样本分类
文本分类

使用案例

文本分析
情感分析
无需特定训练即可对文本进行情感倾向分类
主题分类
对文本内容进行多类别主题分类
问答系统
问题理解
分析问题与候选答案的语义关系
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase