R

Rugpt3medium Based On Gpt2

由ai-forever開發
基於GPT-2架構的俄語預訓練語言模型,由SberDevices團隊開發,支持1024序列長度,訓練數據量達800億token。
下載量 9,710
發布時間 : 3/2/2022

模型概述

該模型是一個俄語預訓練Transformer語言模型,主要用於俄語文本生成和理解任務。

模型特點

大規模預訓練
模型在800億token的俄語數據上進行預訓練,具有強大的語言理解能力。
長序列支持
支持1024的序列長度,後續微調擴展到2048token的上下文窗口。
高效訓練
在64塊GPU上僅用16天完成訓練,展示了高效的訓練能力。

模型能力

俄語文本生成
俄語文本理解

使用案例

自然語言處理
俄語文本生成
可用於生成俄語文章、對話等文本內容。
俄語語言理解
可用於俄語文本分類、情感分析等任務。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase