M

Mdeberta V3 Base

由microsoft開發
mDeBERTa是DeBERTa的多語言版本,採用ELECTRA式預訓練與梯度解耦嵌入共享技術,在XNLI等跨語言任務中表現優異
下載量 692.08k
發布時間 : 3/2/2022

模型概述

基於DeBERTa架構的多語言預訓練模型,支持15種語言,在零樣本跨語言遷移任務中超越XLM-R等同類模型

模型特點

梯度解耦嵌入共享
採用ELECTRA式預訓練方法,通過梯度解耦技術優化嵌入層共享效率
多語言支持
支持15種語言處理,在XNLI跨語言任務中平均準確率達79.8%
解耦注意力機制
改進的注意力機制分離內容和位置信息處理,增強模型理解能力

模型能力

多語言文本理解
零樣本跨語言遷移
掩碼語言建模
文本分類

使用案例

跨語言自然語言理解
XNLI零樣本遷移
僅用英語數據訓練後在其他14種語言測試
平均準確率79.8%,超越XLM-R-base的76.2%
多語言文本處理
多語言文本分類
支持15種語言的文本分類任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase