1

1epochv3

NDugarによって開発
DeBERTaは解耦注意力機構に基づく強化型BERTモデルで、複数の自然言語理解タスクでBERTやRoBERTaを上回る性能を発揮します。
ダウンロード数 28
リリース時間 : 3/2/2022

モデル概要

DeBERTaは解耦注意力機構と強化型マスクデコーダーを用いてBERTアーキテクチャを改良し、特に自然言語理解タスクに適しています。このバージョンはXXLarge規模で、15億のパラメータを含んでいます。

モデル特徴

解耦注意力機構
内容と位置の注意力計算を分離することで、モデルの複雑な言語構造に対する理解能力を向上させます。
強化型マスクデコーダー
改良されたマスク言語モデリングの目的関数により、文脈依存関係をより良く捉えます。
大規模事前学習
160GBの生テキストを使って学習し、複数のベンチマークテストでSOTA性能を達成します。

モデル能力

テキスト分類
自然言語推論
質問応答システム
意味的類似度計算
文対分類

使用事例

テキスト理解
感情分析
テキストの感情傾向を判断します(例:SST - 2データセット)
97.2%の正解率
自然言語推論
文対間の論理関係を判断します(MNLIタスク)
91.7%/91.9%の正解率(マッチング/非マッチングセット)
質問応答システム
SQuAD質問応答
段落に基づく質問応答タスク
SQuAD 2.0で92.2/89.7 (F1/EM)を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase