C

Chinese Roberta L 4 H 768

由uer開發
基於CLUECorpusSmall預訓練的24箇中文RoBERTa模型系列之一,採用UER-py框架訓練,支持掩碼語言建模和文本特徵提取。
下載量 17
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa系列的中型版本,具有8層網絡和512維隱藏層,適用於多種中文自然語言處理任務。

模型特點

多尺寸選擇
提供24種不同規模的模型配置,從超小型到基礎型,滿足不同計算資源需求
中文優化
專門針對中文文本進行預訓練,在CLUE基準測試中表現優異
兩階段訓練
採用128和512兩種序列長度的兩階段訓練策略,提升模型表現

模型能力

文本特徵提取
掩碼語言預測
中文文本理解

使用案例

文本理解
情感分析
分析用戶評論的情感傾向
在中文情感分析任務上達到94.8%準確率
文本分類
對新聞或應用進行分類
在CLUE新聞分類任務上達到65.6%準確率
語義理解
句子匹配
判斷兩個句子的語義相似度
在句子匹配任務上達到88.1%準確率
自然語言推理
判斷文本間的邏輯關係
在CLUE自然語言推理任務上達到71.2%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase