R

Rugpt3small Based On Gpt2

Developed by ai-forever
SberDevicesチームによって開発されたロシア語事前学習Transformer言語モデル。GPT2アーキテクチャを基盤とし、1024シーケンス長をサポート、800億トークンのトレーニングデータを使用。
Downloads 46.92k
Release Time : 3/2/2022

Model Overview

このモデルはロシア語に最適化された事前学習言語モデルで、GPT2アーキテクチャに基づき設計されています。大規模なロシア語コーパスでトレーニングされ、長文生成や理解タスクをサポートします。

Model Features

ロシア語最適化
ロシア語の言語特性に特化して最適化されたトレーニング
長シーケンスサポート
1024シーケンス長をサポートし、微調整により2048コンテキストウィンドウまで拡張可能
効率的なトレーニング
32GPUで約1週間でトレーニングを完了

Model Capabilities

ロシア語テキスト生成
長文理解
言語モデリング

Use Cases

自然言語処理
ロシア語テキスト生成
一貫性のあるロシア語テキストコンテンツを生成
言語モデル研究
ロシア語NLP研究のベースラインモデルとして
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase