D

Debertav3 Mnli Snli Anli

由NDugar開發
DeBERTa是基於解耦注意力機制的增強型BERT解碼模型,通過改進BERT與RoBERTa模型,在多數自然語言理解任務中表現更優。
下載量 26
發布時間 : 3/2/2022

模型概述

DeBERTa V2 XXLarge是一個擁有15億參數的大規模自然語言理解模型,採用解耦注意力機制和增強型掩碼解碼器,在多個GLUE基準任務上表現優異。

模型特點

解耦注意力機制
通過分離內容和位置注意力計算,增強模型對上下文的理解能力
增強型掩碼解碼器
改進的掩碼機制幫助模型更好地處理被掩蓋的token
大規模預訓練
使用160GB原始數據進行預訓練,參數規模達15億

模型能力

文本分類
自然語言推理
問答系統
語義相似度計算

使用案例

自然語言理解
文本蘊含判斷
判斷兩個句子之間的邏輯關係(蘊含/矛盾/中立)
在MNLI任務上達到91.7/91.9的準確率
情感分析
分析文本的情感傾向
在SST-2任務上達到97.2%的準確率
問答系統
開放域問答
回答基於文本內容的問題
在SQuAD 2.0上達到92.2/89.7的F1/EM分數
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase