B

Bert Base Uncased

deepvkによって開発
事前学習済みの双方向エンコーダで、ロシア語テキスト処理に適しており、大規模なソーシャルデータとウィキペディアで学習済み
ダウンロード数 465
リリース時間 : 2/7/2023

モデル概要

BERTアーキテクチャに基づくロシア語事前学習モデルで、テキスト特徴抽出タスクに特化しており、事前学習ヘッドモジュールは含まれていません

モデル特徴

ロシア語最適化
250GBのロシア語コーパスで学習済みで、ウィキペディアとソーシャルデータを含む
純粋エンコーダアーキテクチャ
エンコーダ部分のみを含み、下流タスクのファインチューニングに適している
厳格なデータフィルタリング
学習データは厳格な品質管理を経ている

モデル能力

ロシア語テキスト特徴抽出
コンテキスト意味エンコーディング
下流タスクファインチューニング基盤

使用事例

自然言語処理
テキスト分類
ロシア語ニュース分類/感情分析
Russian Super GlueのRCBタスクで0.467の精度を達成
質問応答システム
ロシア語読解タスク
DaNetQAタスクで0.737の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase