V

V3large 2epoch

NDugarによって開発
DeBERTaは解耦注意機構に基づく強化型BERT改良モデルで、160GBの学習データと15億のパラメータ規模を通じて、複数の自然言語理解タスクでBERTやRoBERTaを上回る性能を発揮します。
ダウンロード数 31
リリース時間 : 3/2/2022

モデル概要

DeBERTaは解耦注意と強化型マスクデコーダーによりBERTアーキテクチャを改良し、特に自然言語理解タスクに適しており、GLUEベンチマークテストで優れた成績を収めています。

モデル特徴

解耦注意機構
内容と位置の注意計算を分離することで、モデルのテキスト関係の理解能力を強化します。
強化型マスクデコーダー
改良されたマスク言語モデリング目標により、モデルのコンテキストのモデリング能力を向上させます。
大規模事前学習
160GBの生テキストデータを使用して事前学習を行い、パラメータ規模は15億に達します。

モデル能力

テキスト分類
自然言語推論
質問応答システム
意味的類似度計算
文対分類

使用事例

テキスト理解
多体裁自然言語推論
2つのテキスト間の論理関係(含意/矛盾/中立)を判断します。
MNLIデータセットで91.7/91.9の正解率を達成しました。
感情分析
テキストの感情傾向(肯定的/否定的)を分析します。
SST - 2データセットで97.2%の正解率を達成しました。
質問応答システム
機械読解
与えられたテキストに基づいて関連する質問に答えます。
SQuAD 2.0で92.2/89.7のF1/EMスコアを達成しました。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase