C

Chinese Roberta L 6 H 512

由uer開發
由UER-py預訓練的中文RoBERTa模型系列中的中型版本,基於CLUECorpusSmall語料訓練,適用於多種中文NLP任務。
下載量 19
發布時間 : 3/2/2022

模型概述

這是一個基於RoBERTa架構的中文預訓練語言模型,具有8層和512隱藏層維度,支持掩碼語言建模等任務。

模型特點

多尺寸選擇
提供24種不同規模的模型配置,從超小型到基礎型,滿足不同計算資源需求。
中文優化
專門針對中文文本進行預訓練,在CLUE基準測試中表現優異。
兩階段訓練
採用先短序列後長序列的兩階段訓練策略,提升模型效果。

模型能力

中文文本理解
掩碼語言建模
文本特徵提取

使用案例

文本理解
情感分析
分析中文文本的情感傾向
在中文情感分析任務上達到93.4%準確率
新聞分類
對中文新聞文本進行分類
在CLUE新聞分類任務上達到65.1%準確率
語言推理
自然語言推理
判斷句子間的邏輯關係
在CLUE自然語言推理任務上達到69.7%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase