R

Rugpt3small Based On Gpt2

ai-foreverによって開発
SberDevicesチームによって開発されたロシア語事前学習Transformer言語モデル。GPT2アーキテクチャを基盤とし、1024シーケンス長をサポート、800億トークンのトレーニングデータを使用。
ダウンロード数 46.92k
リリース時間 : 3/2/2022

モデル概要

このモデルはロシア語に最適化された事前学習言語モデルで、GPT2アーキテクチャに基づき設計されています。大規模なロシア語コーパスでトレーニングされ、長文生成や理解タスクをサポートします。

モデル特徴

ロシア語最適化
ロシア語の言語特性に特化して最適化されたトレーニング
長シーケンスサポート
1024シーケンス長をサポートし、微調整により2048コンテキストウィンドウまで拡張可能
効率的なトレーニング
32GPUで約1週間でトレーニングを完了

モデル能力

ロシア語テキスト生成
長文理解
言語モデリング

使用事例

自然言語処理
ロシア語テキスト生成
一貫性のあるロシア語テキストコンテンツを生成
言語モデル研究
ロシア語NLP研究のベースラインモデルとして
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase