R

Roberta Small Word Chinese Cluecorpussmall

由uer開發
基於CLUECorpusSmall預訓練的中文詞級別RoBERTa中型模型,相比字符級模型在多項任務中表現更優
下載量 33
發布時間 : 3/2/2022

模型概述

該模型是中文詞級別的RoBERTa預訓練模型,採用中等規模架構(8層/512隱藏層),在CLUECorpusSmall語料上訓練,適用於多種中文自然語言處理任務。

模型特點

詞級別分詞優勢
相比字符級模型,詞級別處理使序列更短、速度更快,且在多項任務中表現更優
多尺寸選擇
提供從微型(Tiny)到基礎(Base)5種不同規模的預訓練模型
公開訓練流程
使用公開語料和分詞工具,並提供完整訓練細節便於復現

模型能力

中文文本理解
掩碼詞預測
文本特徵提取
下游任務微調

使用案例

文本分類
情感分析
用於商品評論或社交媒體文本的情感傾向判斷
在中文情感分析任務中達到95.1%準確率
新聞分類
自動對新聞稿件進行主題分類
在CLUE新聞分類任務中達到67.8%準確率
文本匹配
問答系統
判斷問題與候選答案的相關性
在文本匹配任務中達到88.0%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase