C

Chinese Roberta L 4 H 128

由uer開發
基於CLUECorpusSmall預訓練的中文RoBERTa模型,參數規模為8層512隱藏單元,適用於多種中文NLP任務
下載量 22
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa微型模型系列中的中型版本,採用掩碼語言建模預訓練,支持文本特徵提取和完形填空等任務

模型特點

多尺寸選擇
提供24種不同參數規模的模型選擇,從超小型到基礎型滿足不同需求
中文優化
專門針對中文文本預訓練,在CLUE基準測試中表現優異
兩階段訓練
先以短序列訓練再以長序列微調,提升模型對不同長度文本的處理能力

模型能力

文本特徵提取
掩碼語言建模
中文文本理解
完形填空

使用案例

文本理解
情感分析
分析用戶評論的情感傾向
在中文情感分析任務上達到94.8%準確率
新聞分類
對新聞內容進行自動分類
在CLUE新聞分類任務上達到65.6%準確率
文本補全
智能填空
自動補全句子中的缺失部分
能準確預測上下文相關的詞彙
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase