E

Erlangshen DeBERTa V2 97M Chinese

由IDEA-CCNL開發
擅長處理自然語言理解任務的中文DeBERTa-v2基礎模型,採用全詞掩碼技術,參數量9700萬。
下載量 178
發布時間 : 7/19/2022

模型概述

基於解耦注意力機制的增強型BERT模型,專為中文自然語言理解任務設計,適用於文本分類、情感分析等場景。

模型特點

全詞掩碼技術
採用全詞掩碼技術進行預訓練,提升模型對中文詞彙的理解能力。
解耦注意力機制
基於DeBERTa-v2架構,使用解耦注意力機制增強模型表現。
中文優化
專門針對中文語言特性進行優化,使用180G悟道語料庫訓練。

模型能力

文本分類
情感分析
自然語言推理
掩碼語言建模

使用案例

文本分析
新聞分類
對新聞文本進行分類
在TNEWS數據集上準確率57.1%
應用分類
對應用描述進行分類
在IFLYTEK數據集上準確率59.77%
語義理解
自然語言推理
判斷兩個句子之間的邏輯關係
在OCNLI數據集上準確率75.68%
中文推理
進行中文語言推理任務
在CMNLI數據集上準確率80.7%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase