D

Distilbart Mnli 12 3

valhallaによって開発
DistilBart-MNLI は bart-large-mnli の蒸留バージョンで、教師なし蒸留技術を採用し、性能はオリジナルモデルに近いがより軽量です。
ダウンロード数 8,791
リリース時間 : 3/2/2022

モデル概要

このモデルはBARTアーキテクチャに基づく自然言語推論モデルで、ゼロショット分類タスクに特化しており、bart-large-mnliの軽量版です。

モデル特徴

教師なし蒸留技術
Huggingfaceが提案した教師なし蒸留手法を採用し、層の交互コピーによるモデル圧縮を実現。
オリジナルモデルに近い性能
MNLIデータセットで優れた性能を発揮し、12-6層バージョンでは89.19%のマッチング精度を達成、オリジナルモデルの89.9%に近い。
複数の構成オプション
12-1、12-3、12-6、12-9など複数の層構成を提供し、様々な性能ニーズに対応。

モデル能力

自然言語推論
ゼロショット分類
テキスト含意認識

使用事例

テキスト分類
感情分析
ファインチューニング不要でテキストの感情傾向を分類可能
コンテンツモデレーション
有害コンテンツ識別
テキスト内の不適切または有害なコンテンツを識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase