C

Chinese Roberta L 2 H 512

由uer開發
基於CLUECorpusSmall預訓練的中文RoBERTa模型,包含8層網絡和512維隱藏層,適用於多種中文NLP任務。
下載量 37
發布時間 : 3/2/2022

模型概述

這是一箇中文預訓練語言模型,採用RoBERTa架構,支持掩碼語言建模等任務,可用於文本特徵提取和下游NLP任務微調。

模型特點

多尺寸模型選擇
提供從超小型(2層/128維)到基礎型(12層/768維)共24種不同規模的模型選擇
中文優化
專門針對中文文本進行優化訓練,使用CLUECorpusSmall語料庫
兩階段訓練
先以短序列(128)訓練,再以長序列(512)微調,提升模型表現

模型能力

中文文本理解
掩碼語言建模
文本特徵提取
下游任務微調

使用案例

情感分析
商品評論情感分析
分析電商平臺用戶評論的情感傾向
在中文情感分析任務上達到94.8%準確率
文本分類
新聞分類
對新聞文章進行自動分類
在CLUE新聞分類任務上達到65.6%準確率
自然語言推理
文本蘊含識別
判斷兩個句子之間的邏輯關係
在CLUE自然語言推理任務上達到71.2%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase