Spam Deberta V4
MIT
Debertaアーキテクチャに基づくロシア語スパム検出モデルで、テキストをスパムまたは非スパムに分類できます。
テキスト分類
Transformers その他

S
RUSpam
8,274
7
Rubert Tiny2 Ru Go Emotions
MIT
RuBERT-tiny2をファインチューニングしたロシア語マルチラベル感情分類モデル、28種類の感情カテゴリー認識をサポート
テキスト分類
Transformers その他

R
r1char9
56
3
Ru Sum
Apache-2.0
google/mt5-baseを微調整したロシア語テキスト要約生成モデルで、約5万件のサンプルで訓練されており、高品質なロシア語要約の生成に特化しています。
テキスト生成
Transformers その他

R
sarahai
130
2
Vikhr 7b 0.1
Apache-2.0
VikhrはMistralアーキテクチャに基づくロシア語モデルで、4億トークンの3ラウンド事前学習を経ており、ロシア語タスクではオリジナルのMistralを上回る性能を示しますが、コード処理の面では不足がある可能性があります。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
259
57
Rut5 GEC
Apache-2.0
このモデルはロシア語をサポートするオープンソースモデルで、Apache-2.0ライセンスで公開されています。
大規模言語モデル
Transformers その他

R
Askinkaty
84
1
FRED T5 Large
Apache-2.0
T5アーキテクチャに基づくロシア語事前学習言語モデルで、UL2に似た7種類のノイズリダクター混合トレーニング戦略を採用し、様々なテキスト生成タスクをサポートします。
大規模言語モデル
Transformers その他

F
ai-forever
998
25
Deberta V1 Base
Apache-2.0
DeBERTa-baseはロシア語向けの事前学習済み双方向エンコーダで、主にロシア語のテキストタスクを処理するために使用されます。
大規模言語モデル
Transformers 複数言語対応

D
deepvk
160
8
Roberta Base
Apache-2.0
ロシア語の事前学習用の双方向エンコーダモデルで、大規模なテキストコーパスを基に訓練され、特徴抽出タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

R
deepvk
44
3
Ru Core News Sm
MIT
spaCyが提供するCPU最適化されたロシア語処理パイプライン。トークン化、品詞タグ付け、依存関係解析、固有表現認識などの機能を含む
シーケンスラベリング その他
R
spacy
1,310
4
Stanza Ru
Apache-2.0
Stanzaは高精度で効率的な多言語分析ツールセットで、ロシア語のテキスト分析機能を提供します。
シーケンスラベリング その他
S
stanfordnlp
6,089
4
Rubert Large
SberDevicesチームが事前学習したロシア語大規模言語モデル、Transformerアーキテクチャに基づき、パラメータ数4.27億、学習データ量30GB
大規模言語モデル
Transformers その他

R
ai-forever
6,125
14
Ru Core News Lg
MIT
spaCyが提供するロシア語の大規模モデルで、CPU向けに最適化され、完全なNLP処理フローを含んでいます。
シーケンスラベリング その他
R
spacy
74
8
Ru Core News Md
MIT
CPU最適化されたロシア語処理パイプライン、品詞タグ付け、依存関係解析、固有表現認識などのNLPタスクを含む
シーケンスラベリング その他
R
spacy
25
3
Rubert Base Cased Sentiment New
BERTアーキテクチャに基づくロシア語テキスト感情分類モデル
テキスト分類
Transformers その他

R
MonoHime
1,749
19
Rubert Conversational Cased Sentiment
これはロシア語テキストの感情分類に使用されるモデルで、ruBERT対話埋め込み器に基づいて構築され、中性、ポジティブ、ネガティブの3種類の感情を識別できます。
テキスト分類
Transformers その他

R
MonoHime
55
0
Rugpt3medium Sum Gazeta
Apache-2.0
rugpt3medium_based_on_gpt2に基づくロシア語抽象要約生成モデルで、Gazetaデータセットに特化して訓練されています。
テキスト生成
Transformers その他

R
IlyaGusev
1,228
4
Rubert Base Cased
RuBERTは、ロシア語のウィキペディアとニュースデータを基に訓練されたロシア語のBERTモデルで、1億8000万のパラメータを持ち、マスク言語モデリングと次文予測タスクをサポートします。
大規模言語モデル その他
R
DeepPavlov
275.78k
106
Distilbert Base Ru Cased
Apache-2.0
これは多言語蒸留式BERT基礎モデル(大文字小文字を区別)の簡素化されたバージョンで、ロシア語に特化して最適化されており、元のモデルとまったく同じ意味表現を生成し、元の精度を維持します。
大規模言語モデル
Transformers その他

D
Geotrend
498
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98