C

Chinese Roberta L 2 H 128

由uer開發
這是一個基於CLUECorpusSmall預訓練的中文RoBERTa中型模型,具有8層網絡和512維隱藏層,適用於多種中文自然語言處理任務。
下載量 1,141
發布時間 : 3/2/2022

模型概述

該模型是中文RoBERTa微型模型集中的中型版本,採用掩碼語言建模(MLM)目標進行預訓練,可用於文本特徵提取和下游NLP任務微調。

模型特點

高效預訓練
採用兩階段訓練策略,先以短序列訓練再以長序列微調,優化訓練效率
多尺寸選擇
提供從超小型到基礎型的24種不同參數規模的模型選擇
中文優化
專門針對中文文本進行預訓練和優化

模型能力

掩碼語言建模
文本特徵提取
情感分析
文本分類
句子匹配
自然語言推理

使用案例

文本理解
情感分析
分析用戶評論的情感傾向
在中文情感分析任務上達到93.4%準確率
新聞分類
對新聞文章進行自動分類
在CLUE新聞分類任務上達到65.1%準確率
語義理解
句子匹配
判斷兩個句子的語義相似度
在句子匹配任務上達到86.5%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase