R

Rumodernbert Base

Developed by deepvk
現代的な双方向エンコーダー専用Transformerモデルのロシア語版で、約2兆のロシア語、英語、コードトークンで事前学習され、コンテキスト長は8,192トークンに達します。
Downloads 2,992
Release Time : 1/24/2025

Model Overview

RuModernBERTはModernBERTのロシア語版で、マスク言語モデルタスクに焦点を当て、ロシア語と英語をサポートします。

Model Features

長文コンテキストサポート
最大8,192トークンのコンテキスト長をサポート
多言語事前学習
ロシア語、英語、コードトークンで事前学習
効率的なトレーニング
大規模事前学習、コンテキスト拡張、冷却段階を含む3段階のトレーニング戦略を採用

Model Capabilities

マスク言語モデル
ロシア語テキスト理解
英語テキスト理解

Use Cases

自然言語処理
テキスト補完
マスクされた単語やフレーズを予測
マスク予測タスクで良好な性能
テキスト分類
感情分析などのテキスト分類タスクに使用可能
Russian Super Glueベンチマークで優れた性能
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase