D

Distilbart Mnli 12 1

valhallaによって開発
DistilBart - MNLIは、教師なし蒸留技術を用いてbart - large - mnliから蒸留された軽量化バージョンで、高い精度を維持しながらモデルサイズを小さくしています。
ダウンロード数 217.48k
リリース時間 : 3/2/2022

モデル概要

このモデルはBARTアーキテクチャに基づく自然言語推論モデルで、ゼロショット分類タスクに特化しています。

モデル特徴

高効率蒸留
教師なし蒸留技術を採用し、bart - large - mnliから層構造を交互にコピーすることで、モデルサイズを大幅に削減します。
性能維持
モデルが小さくなっているにもかかわらず、MNLIデータセットでは元のモデルに近い精度を維持しています。
多層構成選択可能
複数の層数構成(12 - 1,12 - 3,12 - 6,12 - 9)を提供し、必要に応じて性能と効率をバランスさせることができます。

モデル能力

自然言語推論
ゼロショット分類
テキスト分類

使用事例

テキスト分類
ゼロショット感情分析
特定の訓練なしでテキストの感情分類を行うことができます。
トピック分類
文書のトピック分類を行います。
自然言語理解
テキスト包含判断
2つのテキスト間の論理関係(包含/中立/矛盾)を判断します。
MNLIデータセットで約89%の精度を達成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase