V

V3large 2epoch

由NDugar開發
DeBERTa是基於解耦注意力機制的增強型BERT改進模型,通過160GB訓練數據和15億參數規模,在多項自然語言理解任務中超越BERT和RoBERTa表現。
下載量 31
發布時間 : 3/2/2022

模型概述

DeBERTa通過解耦注意力和增強型掩碼解碼器改進BERT架構,特別適用於自然語言理解任務,在GLUE基準測試中表現優異。

模型特點

解耦注意力機制
通過分離內容和位置注意力計算,增強模型對文本關係的理解能力
增強型掩碼解碼器
改進的掩碼語言建模目標,提升模型對上下文的建模能力
大規模預訓練
使用160GB原始文本數據進行預訓練,參數規模達15億

模型能力

文本分類
自然語言推理
問答系統
語義相似度計算
句子對分類

使用案例

文本理解
多體裁自然語言推理
判斷兩段文本之間的邏輯關係(蘊含/矛盾/中立)
在MNLI數據集上達到91.7/91.9的準確率
情感分析
分析文本情感傾向(正面/負面)
在SST-2數據集上達到97.2%準確率
問答系統
機器閱讀理解
基於給定文本回答相關問題
在SQuAD 2.0上達到92.2/89.7的F1/EM分數
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase