E

Erlangshen DeBERTa V2 710M Chinese

由IDEA-CCNL開發
這是一個專注於中文自然語言理解任務的710M參數DeBERTa-v2模型,採用全詞掩碼方式預訓練,為中文NLP領域提供強大支持。
下載量 246
發布時間 : 8/16/2022

模型概述

二郎神-DeBERTa-v2-710M-中文模型是基於DeBERTa-v2架構的中文預訓練模型,擅長處理自然語言理解任務,採用全詞掩碼方式提升預訓練效果。

模型特點

全詞掩碼預訓練
採用全詞掩碼(wwm)方式,提升預訓練效果
強大語言理解能力
基於7.1億參數的DeBERTa-v2-XLarge架構,具備強大的語言理解能力
中文優化
專門針對中文NLP任務進行優化,在多箇中文NLU任務中表現優異

模型能力

文本理解
語義分析
文本補全

使用案例

自然語言理解
情感分析
分析文本中的情感傾向
文本分類
對文本內容進行分類
語言模型任務
掩碼語言建模
預測被掩碼的詞語
在多箇中文NLU任務中表現優於RoBERTa-base/large
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase