D

Distilbert Base Uncased Mnli

optimumによって開発
大文字小文字を区別しないDistilBERTモデルを基に、マルチジャンル自然言語推論(MNLI)データセットでファインチューニングされ、ゼロショット分類タスク向けに最適化
ダウンロード数 53
リリース時間 : 3/24/2022

モデル概要

これは軽量な自然言語理解モデルで、特にテキスト分類と自然言語推論タスクに特化しており、ゼロショット分類シナリオに最適です。

モデル特徴

軽量アーキテクチャ
DistilBERTベースで、標準BERTモデルより小型かつ高速でありながら、良好な性能を維持
ゼロショット分類能力
特定ドメインのトレーニングなしで分類タスクを実行可能
大文字小文字非依存
入力テキストの大文字小文字を区別せず、柔軟な処理が可能

モデル能力

テキスト分類
自然言語推論
ゼロショット学習

使用事例

テキスト分析
感情分析
テキストの感情傾向を分析
トピック分類
テキストを事前定義されたトピックカテゴリに分類
コンテンツモデレーション
不適切コンテンツ検出
テキスト内の不適切またはセンシティブなコンテンツを識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase