V

V3large 1epoch

NDugarによって開発
DeBERTaは分離注意メカニズムに基づく強化型BERTデコードモデルで、自然言語理解タスクで優れた性能を発揮します。
ダウンロード数 32
リリース時間 : 3/2/2022

モデル概要

DeBERTaは分離注意メカニズムと強化されたマスクデコーダーによりBERTとRoBERTaモデルを改良し、様々な自然言語理解タスクをサポートします。

モデル特徴

分離注意メカニズム
内容と位置の注意メカニズムを分離することで、モデルの理解能力を向上
強化型マスクデコーダー
改良されたマスク言語モデリング手法で、モデル訓練効率を向上
大規模事前学習
160GBの生テキストデータを使用して訓練
優れた性能
複数のGLUEベンチマークタスクでBERTとRoBERTaを凌駕

モデル能力

テキスト分類
自然言語推論
質問応答システム
意味的類似度計算

使用事例

テキスト分析
感情分析
テキストの感情傾向を分析
SST-2データセットで97.2%の精度を達成
自然言語推論
2つのテキスト間の論理的関係を判断
MNLIデータセットで91.7%/91.9%の精度を達成
質問応答システム
読解
テキストに基づいて質問に回答
SQuAD 2.0で92.2/89.7 F1/EMスコアを達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase