# ロシア語NLP

Spam Deberta V4
MIT
Debertaアーキテクチャに基づくロシア語スパム検出モデルで、テキストをスパムまたは非スパムに分類できます。
テキスト分類 Transformers その他
S
RUSpam
8,274
7
Rubert Tiny2 Ru Go Emotions
MIT
RuBERT-tiny2をファインチューニングしたロシア語マルチラベル感情分類モデル、28種類の感情カテゴリー認識をサポート
テキスト分類 Transformers その他
R
r1char9
56
3
Ru Sum
Apache-2.0
google/mt5-baseを微調整したロシア語テキスト要約生成モデルで、約5万件のサンプルで訓練されており、高品質なロシア語要約の生成に特化しています。
テキスト生成 Transformers その他
R
sarahai
130
2
Vikhr 7b 0.1
Apache-2.0
VikhrはMistralアーキテクチャに基づくロシア語モデルで、4億トークンの3ラウンド事前学習を経ており、ロシア語タスクではオリジナルのMistralを上回る性能を示しますが、コード処理の面では不足がある可能性があります。
大規模言語モデル Transformers 複数言語対応
V
Vikhrmodels
259
57
Rut5 GEC
Apache-2.0
このモデルはロシア語をサポートするオープンソースモデルで、Apache-2.0ライセンスで公開されています。
大規模言語モデル Transformers その他
R
Askinkaty
84
1
FRED T5 Large
Apache-2.0
T5アーキテクチャに基づくロシア語事前学習言語モデルで、UL2に似た7種類のノイズリダクター混合トレーニング戦略を採用し、様々なテキスト生成タスクをサポートします。
大規模言語モデル Transformers その他
F
ai-forever
998
25
Deberta V1 Base
Apache-2.0
DeBERTa-baseはロシア語向けの事前学習済み双方向エンコーダで、主にロシア語のテキストタスクを処理するために使用されます。
大規模言語モデル Transformers 複数言語対応
D
deepvk
160
8
Roberta Base
Apache-2.0
ロシア語の事前学習用の双方向エンコーダモデルで、大規模なテキストコーパスを基に訓練され、特徴抽出タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
R
deepvk
44
3
Ru Core News Sm
MIT
spaCyが提供するCPU最適化されたロシア語処理パイプライン。トークン化、品詞タグ付け、依存関係解析、固有表現認識などの機能を含む
シーケンスラベリング その他
R
spacy
1,310
4
Stanza Ru
Apache-2.0
Stanzaは高精度で効率的な多言語分析ツールセットで、ロシア語のテキスト分析機能を提供します。
シーケンスラベリング その他
S
stanfordnlp
6,089
4
Rubert Large
SberDevicesチームが事前学習したロシア語大規模言語モデル、Transformerアーキテクチャに基づき、パラメータ数4.27億、学習データ量30GB
大規模言語モデル Transformers その他
R
ai-forever
6,125
14
Ru Core News Lg
MIT
spaCyが提供するロシア語の大規模モデルで、CPU向けに最適化され、完全なNLP処理フローを含んでいます。
シーケンスラベリング その他
R
spacy
74
8
Ru Core News Md
MIT
CPU最適化されたロシア語処理パイプライン、品詞タグ付け、依存関係解析、固有表現認識などのNLPタスクを含む
シーケンスラベリング その他
R
spacy
25
3
Rubert Base Cased Sentiment New
BERTアーキテクチャに基づくロシア語テキスト感情分類モデル
テキスト分類 Transformers その他
R
MonoHime
1,749
19
Rubert Conversational Cased Sentiment
これはロシア語テキストの感情分類に使用されるモデルで、ruBERT対話埋め込み器に基づいて構築され、中性、ポジティブ、ネガティブの3種類の感情を識別できます。
テキスト分類 Transformers その他
R
MonoHime
55
0
Rugpt3medium Sum Gazeta
Apache-2.0
rugpt3medium_based_on_gpt2に基づくロシア語抽象要約生成モデルで、Gazetaデータセットに特化して訓練されています。
テキスト生成 Transformers その他
R
IlyaGusev
1,228
4
Rubert Base Cased
RuBERTは、ロシア語のウィキペディアとニュースデータを基に訓練されたロシア語のBERTモデルで、1億8000万のパラメータを持ち、マスク言語モデリングと次文予測タスクをサポートします。
大規模言語モデル その他
R
DeepPavlov
275.78k
106
Distilbert Base Ru Cased
Apache-2.0
これは多言語蒸留式BERT基礎モデル(大文字小文字を区別)の簡素化されたバージョンで、ロシア語に特化して最適化されており、元のモデルとまったく同じ意味表現を生成し、元の精度を維持します。
大規模言語モデル Transformers その他
D
Geotrend
498
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase