C

Chinese Roberta L 8 H 256

由uer開發
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元,適用於多種中文NLP任務。
下載量 15
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa微型模型集中的中型版本,採用RoBERTa架構優化,支持掩碼語言建模等任務。

模型特點

多尺寸選擇
提供24種不同參數規模的模型選擇,適應不同計算資源需求
中文優化
專門針對中文文本進行預訓練優化
兩階段訓練
採用128和512兩種序列長度的兩階段訓練策略

模型能力

中文文本理解
掩碼語言建模
文本特徵提取

使用案例

文本理解
文本填空
預測被掩碼的詞或短語
在測試中能準確預測如'北京是[MASK]國的首都'中的'中'
情感分析
評論情感判斷
分析文本情感傾向
在書評情感任務上達到88.7分
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase