D

Deberta Base

由kamalkraj開發
DeBERTa 是一種基於解耦注意力機制的增強型 BERT 解碼模型,改進了 BERT 和 RoBERTa 模型,在自然語言理解任務中表現優異。
下載量 287
發布時間 : 3/2/2022

模型概述

DeBERTa 通過解耦注意力機制與增強型掩碼解碼器改進了 BERT 和 RoBERTa 模型,適用於自然語言理解任務。

模型特點

解耦注意力機制
通過解耦注意力機制改進了 BERT 和 RoBERTa 模型,提升了模型性能。
增強型掩碼解碼器
採用增強型掩碼解碼器,進一步優化了模型的解碼能力。
高性能
在 80GB 訓練數據下,DeBERTa 在大多數自然語言理解任務中表現優於 BERT 和 RoBERTa。

模型能力

自然語言理解
文本分類
問答系統

使用案例

自然語言處理
問答系統
DeBERTa 可用於構建高性能的問答系統,如 SQuAD 1.1/2.0 任務。
在 SQuAD 1.1 上達到 93.1/87.2,SQuAD 2.0 上達到 86.2/83.1。
文本分類
DeBERTa 可用於文本分類任務,如 MNLI 任務。
在 MNLI-m 上達到 88.8。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase