Deberta Xlarge Mnli
DeBERTa-XLarge-MNLIは分離注意メカニズムを基にした強化型BERTモデルで、MNLIタスクで微調整され、750Mのパラメータを持ち、自然言語理解タスクで優れた性能を発揮します。
Downloads 833.58k
Release Time : 3/2/2022
Model Overview
DeBERTaは分離注意メカニズムと強化されたマスクデコーダーによりBERTとRoBERTaモデルを改良し、80GBのトレーニングデータの下で、ほとんどの自然言語理解タスクにおいてBERTとRoBERTaの性能を上回りました。
Model Features
分離注意メカニズム
分離注意メカニズムによりBERTとRoBERTaモデルを改良し、自然言語理解タスクにおけるモデルの性能を向上させました。
強化されたマスクデコーダー
強化されたマスクデコーダーを採用し、モデルの性能をさらに向上させました。
大規模トレーニングデータ
80GBのトレーニングデータでトレーニングされ、複数の自然言語理解タスクで優れた性能を発揮します。
Model Capabilities
自然言語理解
テキスト分類
意味的類似度計算
Use Cases
自然言語処理
テキスト含意認識
2つの文間の論理的関係(含意、矛盾、中立)を識別します。
MNLIタスクで91.5/91.2(一致/不一致)の精度を達成。
意味的類似度計算
2つの文間の意味的類似度を計算します。
STS-BタスクでPearson/Spearman相関係数92.9/92.7を達成。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98