R

Roberta Tiny Word Chinese Cluecorpussmall

由uer開發
基於CLUECorpusSmall預訓練的中文分詞版RoBERTa中型模型,採用8層512隱藏層架構,相比字符版模型具有更優性能和更快處理速度
下載量 17
發布時間 : 3/2/2022

模型概述

中文分詞版RoBERTa預訓練語言模型,支持掩碼預測和文本特徵提取任務,適用於各類中文自然語言處理應用

模型特點

分詞版優勢
採用分詞處理而非字符級別,顯著縮短序列長度並提升處理速度,實驗證明性能優於字符版模型
多規格選擇
提供從Tiny(L2/H128)到Base(L12/H768)共5種規格,滿足不同計算資源需求
開源訓練
使用公開CLUECorpusSmall語料和sentencepiece分詞工具,提供完整訓練細節便於復現

模型能力

中文文本掩碼預測
文本特徵向量提取
下游任務微調

使用案例

文本補全
交通信息查詢
補全交通時刻表查詢語句
示例輸入:'最近一趟去北京的[MASK]幾點發車'
智能問答
事實型問答
回答常識性問題
示例輸入:'[MASK]的首都是北京。'
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase