R

Roberta Medium Word Chinese Cluecorpussmall

由uer開發
基於CLUECorpusSmall預訓練的中文分詞版RoBERTa中型模型,採用8層512隱藏層架構,相比字符版模型在多項任務中表現更優
下載量 293
發布時間 : 3/2/2022

模型概述

中文分詞版RoBERTa模型集合中的中型規格,支持掩碼語言建模等自然語言處理任務,具有更快的處理速度和更好的性能表現

模型特點

分詞版優勢
相比字符級模型處理速度更快且性能更優,在多項中文NLP任務中平均提升1.1分
多規格選擇
提供從微型(Tiny)到基礎(Base)5種不同規模的預訓練模型
公開訓練流程
完整公開訓練數據和訓練參數,使用CLUECorpusSmall語料和sentencepiece分詞工具

模型能力

中文文本理解
掩碼詞預測
文本特徵提取
下游任務微調

使用案例

文本補全
句子補全
預測被掩碼的詞語完成句子
示例輸入'[MASK]的首都是北京',模型正確預測'中國'
情感分析
評論情感判斷
微調後用於商品評論情感分類
在書評情感任務中達到90.0%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase