D

Deberta V3 Base

microsoftによって開発
DeBERTaV3はDeBERTaを改良した事前学習言語モデルで、勾配分離埋め込み共有のELECTRAスタイル事前学習手法により効率を向上させ、自然言語理解タスクで優れた性能を発揮します。
ダウンロード数 1.6M
リリース時間 : 3/2/2022

モデル概要

DeBERTaV3は注意機構の分離と強化型マスクデコーダによりBERTとRoBERTaモデルを改良し、ELECTRAスタイル事前学習を採用してさらに性能を向上させ、様々な自然言語理解タスクに適しています。

モデル特徴

注意機構の分離
内容と位置の注意計算を分離することで、テキスト依存関係をより正確にモデル化
ELECTRAスタイル事前学習
勾配分離埋め込み共有のELECTRA事前学習手法を採用し、学習効率を向上
強化型マスクデコーダ
改良されたマスク言語モデリング機構により、文脈把握能力を強化

モデル能力

テキスト分類
質問応答システム
自然言語推論
意味理解

使用事例

テキスト理解
質問応答システム
高精度質問応答システムの構築に使用
SQuAD 2.0でF1スコア88.4、EMスコア85.4
テキスト分類
自然言語推論タスクに使用
MNLIタスクで精度90.6/90.7(一致/不一致)
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase