R

Rubert Base

由ai-forever開發
由SberDevices團隊預訓練的俄語基礎版BERT模型,參數量1.78億,基於30GB俄語文本訓練
下載量 29.43k
發布時間 : 3/2/2022

模型概述

俄語預訓練Transformer語言模型,主要用於掩碼填充任務

模型特點

俄語優化
專門針對俄語特性進行預訓練,在俄語NLP任務中表現優異
高效架構
基於BERT基礎架構,參數量適中,推理效率高
大規模預訓練
使用30GB俄語文本數據進行預訓練,語言理解能力強

模型能力

文本理解
掩碼填充
上下文特徵提取

使用案例

自然語言處理
文本自動補全
預測文本中被掩碼的單詞或短語
文本特徵提取
為下游NLP任務提供文本表示
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase