C

Chinese Roberta L 2 H 256

由uer開發
基於CLUECorpusSmall預訓練的中文RoBERTa模型,包含8層網絡和512隱藏層維度,適用於多種中文NLP任務。
下載量 26
發布時間 : 3/2/2022

模型概述

這是一個由UER-py框架預訓練的中文RoBERTa模型集合中的中型版本,專門針對中文文本處理優化,支持掩碼語言建模和文本特徵提取。

模型特點

多尺寸模型選擇
提供24種不同規模配置(從2層/128隱藏單元到12層/768隱藏單元),滿足不同計算資源需求
高效預訓練
採用兩階段訓練策略(先128後512序列長度),在CLUECorpusSmall語料上取得優於更大規模語料的性能
中文優化
專門針對中文特性設計和優化,在中文情感分析、文本匹配等任務上表現優異

模型能力

掩碼語言建模
文本特徵提取
中文文本理解
下游任務微調

使用案例

情感分析
商品評論情感判斷
分析電商平臺用戶評論的情感傾向
在中文情感分析任務上達到94.8%準確率
文本匹配
問答系統匹配
計算問題與候選答案的語義相似度
在文本匹配任務上達到88.1%準確率
文本分類
新聞分類
對中文新聞稿件進行自動分類
在CLUE新聞分類任務上達到65.6%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase