R

Ruroberta Large

由ai-forever開發
由SberDevices團隊預訓練的俄語RoBERTa大模型,參數量3.55億,基於250GB俄語文本訓練
下載量 21.00k
發布時間 : 3/2/2022

模型概述

俄語預訓練Transformer語言模型,主要用於掩碼填充任務,適用於俄語NLP任務

模型特點

大規模預訓練
基於250GB俄語文本數據進行預訓練
高效分詞
採用BBPE分詞器,詞表規模50,257
優化架構
基於Transformer編碼器架構的RoBERTa變體

模型能力

俄語文本理解
掩碼語言建模
上下文特徵提取

使用案例

自然語言處理
文本分類
可用於俄語文本分類任務
命名實體識別
適用於俄語NER任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase