D

Deberta V2 Xxlarge

microsoftによって開発
DeBERTa V2 XXLargeは、解耦注意力と強化マスクデコードに基づく改良型BERTモデルで、15億のパラメータを持ち、複数の自然言語理解タスクでBERTやRoBERTaを上回る性能を発揮します。
ダウンロード数 9,179
リリース時間 : 3/2/2022

モデル概要

DeBERTaは、革新的な解耦注意力機構と強化型マスクデコーダーによってBERTアーキテクチャを改良しました。このXXLargeバージョンは48層のネットワークと1536次元の隠れ層を持ち、160GBの訓練データを使用しており、GLUEやSQuADなどのベンチマークテストで優れた性能を示しています。

モデル特徴

解耦注意力機構
内容と位置の注意力を分離して計算し、テキストの依存関係をより正確にモデル化します。
強化マスクデコーダー
改良されたマスク言語モデリング目標で、絶対位置情報を考慮することで予測能力を向上させます。
大規模事前学習
160GBの高品質テキストデータを使用して訓練し、より豊富な言語表現を学習します。

モデル能力

テキスト理解
意味解析
質問応答システム
テキスト分類
自然言語推論

使用事例

学術研究
GLUEベンチマークテスト
一般的な言語理解評価ベンチマークで最先端の性能を実現します。
MNLIの正解率91.7%、SST - 2の感情分析97.2%
産業応用
スマートカスタマーサービス
ユーザーのクエリ意図を理解し、応答を生成するために使用されます。
文書分析
契約書やレポートから自動的に分類し、重要な情報を抽出します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase