D

Deberta Large Mnli Zero Cls

由Narsil開發
DeBERTa是基於解耦注意力機制的增強型BERT解碼模型,通過改進注意力機制和掩碼解碼器,在多項自然語言理解任務上超越BERT和RoBERTa。
下載量 51.27k
發布時間 : 3/2/2022

模型概述

DeBERTa通過解耦注意力機制和增強型掩碼解碼器改進了BERT與RoBERTa模型,支持多種自然語言理解任務。

模型特點

解耦注意力機制
通過解耦注意力機制改進傳統的注意力計算方式,提升模型性能。
增強型掩碼解碼器
採用增強型掩碼解碼器,進一步提升模型在自然語言理解任務中的表現。
高性能
在多項自然語言理解任務上超越BERT、RoBERTa和XLNet等模型。

模型能力

文本分類
問答系統
自然語言推理
語義相似度計算

使用案例

自然語言處理
文本分類
用於情感分析、主題分類等任務。
在SST-2數據集上準確率達到97.2%。
問答系統
用於構建高性能的問答系統。
在SQuAD 1.1數據集上F1得分為96.1,EM得分為91.4。
自然語言推理
用於判斷兩個句子之間的邏輯關係。
在MNLI數據集上準確率達到91.7/91.9(匹配/不匹配)。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase