C

Chinese Roberta L 8 H 512

由uer開發
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元,支持掩碼語言建模任務。
下載量 76
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa微型模型集中的中型版本,適用於中文文本理解和生成任務,特別擅長處理掩碼預測任務。

模型特點

多規模選擇
提供24種不同參數規模的模型選擇,從超小型到基礎型,滿足不同計算資源需求
兩階段訓練
採用先短序列後長序列的兩階段訓練策略,提升模型對不同長度文本的理解能力
公開語料訓練
使用公開的CLUECorpusSmall語料庫訓練,結果可復現

模型能力

中文文本理解
掩碼語言建模
文本特徵提取

使用案例

文本補全
地理知識補全
補全包含地理知識的句子,如'北京是[MASK]國的首都'
能準確預測'中'字填充掩碼位置
情感分析
評論情感判斷
用於判斷用戶評論的情感傾向
在中文情感分析任務上達到93.4%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase