C

Chinese Roberta L 12 H 768

由uer開發
基於RoBERTa架構的中文預訓練語言模型,隱藏層維度512,包含8層Transformer結構
下載量 419
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa微型模型集中的一箇中型版本,適用於多種中文自然語言處理任務,如文本分類、情感分析、句子相似度計算等。

模型特點

多尺寸選擇
提供24種不同參數規模的模型選擇,從超小型到基礎型,滿足不同計算資源需求
兩階段訓練
採用128和512兩種序列長度分階段訓練,提升模型對不同長度文本的處理能力
公開語料訓練
使用公開的CLUECorpusSmall語料庫訓練,結果可復現

模型能力

中文文本理解
掩碼語言建模
文本特徵提取
情感分析
文本分類
句子相似度計算

使用案例

情感分析
商品評論情感分析
分析電商平臺用戶評論的情感傾向
在中文情感分析任務上達到93.4%的準確率
文本分類
新聞分類
對新聞文章進行主題分類
在CLUE新聞分類任務上達到65.1%的準確率
語義理解
句子相似度計算
判斷兩個句子的語義相似度
在句子相似度任務上達到86.5%的準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase