B

Bert Medium Mnli

prajjwal1によって開発
このモデルは、Google公式のBERTリポジトリ内のTensorFlowチェックポイントを変換して得られたPyTorchの事前学習モデルで、MNLIデータセットを基に訓練され、自然言語推論タスクに使用されます。
ダウンロード数 415
リリース時間 : 3/2/2022

モデル概要

このBERTのバリエーションは論文「博識な学生はより良く学ぶ:事前学習されたコンパクトモデルの重要性について」に由来し、自然言語推論タスクに特化して最適化されており、MNLIデータセットで優れた性能を発揮します。

モデル特徴

効率的な事前学習
Google公式のBERTモデルを基に変換され、BERTの効率的な事前学習アーキテクチャを引き継いでいます。
NLIに特化した最適化
MNLIデータセットを基に特化して訓練され、自然言語推論能力が最適化されています。
異分野への汎化
論文の研究により、このモデルは異分野の自然言語推論タスクで良好な性能を発揮することが示されています。

モデル能力

自然言語推論
テキスト分類
意味理解

使用事例

自然言語処理
テキスト含意識別
2つの文間の論理関係(含意、矛盾、中立)を判断する
MNLIデータセットで75.86%の正解率を達成
異分野推論
異なる分野のテキストで推論タスクを行う
MNLI - mmデータセットで77.03%の正解率を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase