M

Mdeberta V3 Base

microsoftによって開発
mDeBERTaはDeBERTaの多言語バージョンで、ELECTRA方式の事前学習と勾配脱結合埋め込み共有技術を採用し、XNLIなどのクロスランゲージタスクで優れた性能を発揮します。
ダウンロード数 692.08k
リリース時間 : 3/2/2022

モデル概要

DeBERTaアーキテクチャに基づく多言語事前学習モデルで、15種類の言語をサポートし、ゼロショットクロスランゲージ移行タスクでXLM - Rなどの同類のモデルを上回ります。

モデル特徴

勾配脱結合埋め込み共有
ELECTRA方式の事前学習方法を採用し、勾配脱結合技術により埋め込み層の共有効率を最適化します。
多言語サポート
15種類の言語処理をサポートし、XNLIクロスランゲージタスクでの平均正解率は79.8%に達します。
脱結合アテンションメカニズム
改良されたアテンションメカニズムが内容と位置情報の処理を分離し、モデルの理解能力を強化します。

モデル能力

多言語テキスト理解
ゼロショットクロスランゲージ移行
マスク付き言語モデリング
テキスト分類

使用事例

クロスランゲージ自然言語理解
XNLIゼロショット移行
英語データのみで学習した後、他の14種類の言語でテスト
平均正解率79.8%、XLM - R - baseの76.2%を上回ります。
多言語テキスト処理
多言語テキスト分類
15種類の言語のテキスト分類タスクをサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase