R

Rugpt3small Based On Gpt2

由ai-forever開發
由SberDevices團隊開發的俄語預訓練Transformer語言模型,基於GPT2架構,支持1024序列長度,訓練數據達800億token。
下載量 46.92k
發布時間 : 3/2/2022

模型概述

該模型是一個針對俄語優化的預訓練語言模型,基於GPT2架構設計,通過大規模俄語語料庫訓練,支持長文本生成和理解任務。

模型特點

俄語優化
專門針對俄語語言特性進行優化訓練
長序列支持
支持1024序列長度,後續微調擴展到2048上下文窗口
高效訓練
在32塊GPU上僅需約一週完成訓練

模型能力

俄語文本生成
長文本理解
語言建模

使用案例

自然語言處理
俄語文本生成
生成連貫的俄語文本內容
語言模型研究
作為俄語NLP研究的基線模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase