R

Roberta Mini Word Chinese Cluecorpussmall

由uer開發
基於CLUECorpusSmall預訓練的中文詞級別RoBERTa中型模型,相比字符模型在多項任務中表現更優
下載量 44
發布時間 : 3/2/2022

模型概述

該模型是中文詞級別的RoBERTa預訓練模型,採用詞基分詞方式,相比字符模型具有更快的處理速度和更好的性能表現。適用於多種中文自然語言處理任務。

模型特點

詞基分詞優勢
採用詞基而非字符分詞,處理速度更快且實驗顯示性能更優
多尺寸選擇
提供從微型到基礎的5種不同尺寸模型,滿足不同應用場景需求
公開訓練數據
使用公開的CLUECorpusSmall語料庫和標準分詞工具,便於復現結果

模型能力

中文文本理解
掩碼語言建模
文本特徵提取

使用案例

文本理解
填空補全
預測被掩碼的詞,如'[MASK]的首都是北京'
能準確預測'中國'等合理答案
特徵提取
文本表示
獲取文本的向量表示用於下游任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase