C

Chinese Roberta L 4 H 512

由uer開發
這是一個基於RoBERTa架構的中文預訓練語言模型,參數規模為8層512隱藏單元,適用於多種中文自然語言處理任務。
下載量 873
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa微型模型集中的中型版本,採用Transformer架構,通過掩碼語言建模任務在中文語料上進行預訓練,可用於文本理解、分類等下游任務。

模型特點

多尺寸選擇
提供從微型到基礎版共24種不同規模的模型選擇,滿足不同計算資源需求
中文優化
專門針對中文文本進行預訓練,在中文NLP任務上表現優異
兩階段訓練
先以短序列訓練,再以長序列微調,提升模型對不同長度文本的處理能力

模型能力

文本特徵提取
掩碼語言建模
文本分類
情感分析
句子匹配
自然語言推理

使用案例

文本理解
情感分析
分析用戶評論的情感傾向
在中文情感分析任務上達到93.4%準確率
新聞分類
對新聞文章進行自動分類
在CLUE新聞分類任務上達到65.1%準確率
語言推理
自然語言推理
判斷兩個句子之間的邏輯關係
在CLUE自然語言推理任務上達到69.7%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase