D

Debertav3 Mnli Snli Anli

NDugarによって開発
DeBERTaは解耦注意力機構に基づく強化型BERTデコードモデルで、BERTとRoBERTaモデルを改良することで、ほとんどの自然言語理解タスクでより優れた性能を発揮します。
ダウンロード数 26
リリース時間 : 3/2/2022

モデル概要

DeBERTa V2 XXLargeは15億のパラメータを持つ大規模自然言語理解モデルで、解耦注意力機構と強化型マスクデコーダを採用し、複数のGLUEベンチマークタスクで優れた性能を発揮します。

モデル特徴

解耦注意力機構
内容と位置の注意力計算を分離することで、モデルのコンテキスト理解能力を強化します。
強化型マスクデコーダ
改良されたマスク機構により、モデルがマスクされたトークンをより適切に処理できるようになります。
大規模事前学習
160GBの生データを使用して事前学習を行い、パラメータ規模は15億に達します。

モデル能力

テキスト分類
自然言語推論
質問応答システム
意味的類似度計算

使用事例

自然言語理解
テキスト含意判断
2つの文の間の論理関係(含意/矛盾/中立)を判断します。
MNLIタスクで91.7/91.9の正解率を達成しました。
感情分析
テキストの感情傾向を分析します。
SST - 2タスクで97.2%の正解率を達成しました。
質問応答システム
オープンドメイン質問応答
テキスト内容に基づく質問に回答します。
SQuAD 2.0で92.2/89.7のF1/EMスコアを達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase