D

Distilbart Mnli 12 9

valhallaによって開発
DistilBart - MNLIは、教師なし蒸留技術を用いてbart - large - mnliから蒸留された軽量版で、高い精度を維持しながらモデルの複雑さを減らしています。
ダウンロード数 8,343
リリース時間 : 3/2/2022

モデル概要

このモデルは主にゼロショット分類タスクに使用され、自然言語推論(NLI)のシナリオに特に適しています。これはbart - large - mnliの軽量蒸留版で、層構造を交互にコピーし、同じデータで微調整することで得られます。

モデル特徴

効率的な蒸留
教師なし蒸留技術を採用し、bart - large - mnliから層構造を交互にコピーすることで、モデル規模を大幅に縮小します。
高性能維持
MNLIデータセットでは、元のモデルに近い精度を維持し、性能の低下は極小です。
複数バージョン選択
異なる層数の複数のバージョン(12 - 1、12 - 3、12 - 6、12 - 9)を提供し、ニーズに応じて性能と効率をバランスさせることができます。

モデル能力

自然言語推論
ゼロショット分類
テキスト分類

使用事例

テキスト分析
感情分析
特定の訓練なしでテキストの感情傾向を分類できます。
トピック分類
テキスト内容を多クラスのトピックに分類します。
質問応答システム
質問理解
質問と候補回答の意味関係を分析します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase