C

Chinese Roberta L 6 H 768

由uer開發
基於CLUECorpusSmall預訓練的中文RoBERTa中型模型,具有8層網絡和512維隱藏層,適用於多種中文NLP任務。
下載量 222
發布時間 : 3/2/2022

模型概述

這是一個預訓練的中文RoBERTa模型,採用掩碼語言建模目標進行訓練,可用於文本特徵提取、文本分類、情感分析等自然語言處理任務。

模型特點

多尺寸模型選擇
提供從超小型到基礎型的24種不同參數規模的模型選擇,適應不同計算資源需求
中文優化
專門針對中文文本進行優化,在中文NLP任務上表現優異
兩階段訓練
採用128和512兩種序列長度分階段訓練,提升模型對不同長度文本的處理能力

模型能力

文本特徵提取
掩碼語言建模
文本分類
情感分析
文本匹配
自然語言推理

使用案例

情感分析
商品評論情感分析
分析電商平臺商品評論的情感傾向
在中文情感分析任務上達到93.4%的準確率
文本分類
新聞分類
對新聞文章進行自動分類
在CLUE新聞分類任務上達到65.1%的準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase