# ロシア語最適化

MT Gemma 3 12B
本プロジェクトでは、mergekitとDARE TIES方法を使用して、soob3123/amoral - gemma3 - 12B - v2とIlyaGusev/saiga_gemma3_12bの2つのモデルを統合し、より強力な言語処理能力を提供することを目的としています。
大規模言語モデル Transformers
M
zelk12
1,348
2
Core 24B V.1
Mistral 3.1アーキテクチャを基にアップグレードした融合モデルで、ロシア語処理能力を保持しつつ対話表現を強化
大規模言語モデル Transformers 複数言語対応
C
OddTheGreat
31
6
Vikhr YandexGPT 5 Lite 8B It
その他
YandexGPT-5-Lite-8B-pretrainをベースにした命令モデルで、ロシア語データセットGrandMaster-PRO-MAXとGrounded-RAG-RU-v2でSFT訓練されており、ロシア語と英語のタスクに優れています。
大規模言語モデル Transformers 複数言語対応
V
Vikhrmodels
3,058
20
Ruadaptqwen2.5 7B Lite Beta
Apache-2.0
本プロジェクトはT - lite - it - 1.0モデルをロシア語に適合させ、形態素解析器を交換し、ロシア語コーパスで継続的に事前学習し、LEP技術を適用することで、ロシア語テキストの生成速度を向上させました。
大規模言語モデル Safetensors
R
RefalMachine
1,603
8
Ruadaptqwen2.5 32B Pro Beta
Apache-2.0
このプロジェクトは、モデルをロシア語に適合させた成果であり、形態素解析器を交換し、ロシア語コーパスでの事前学習を続け、LEP技術を適用することで、ロシア語テキストの生成速度を向上させ、ロシア語の自然言語処理に新しい解決策を提供します。
大規模言語モデル Safetensors
R
RefalMachine
2,913
10
Meno Tiny 0.1
Apache-2.0
Qwen2.5-1.5B-Instructをファインチューニングしたロシア語コマンド最適化モデル、15億パラメータ、ロシア語と英語をサポート、RAGプロセスにおけるテキストQAに優れる
大規模言語モデル Transformers 複数言語対応
M
bond005
764
10
Vikhr Llama 3.2 1B Instruct
Llama-3.2-1B-Instructをベースにしたロシア語最適化指令モデルで、効率が5倍向上し、低消費電力デバイスへのデプロイに適しています。
大規模言語モデル Transformers
V
Vikhrmodels
2,915
41
Any News Sum
mT5-baseベースの多言語ニュース要約モデルで、45言語のニュースタイトルと要約生成をサポート
テキスト生成 Transformers 複数言語対応
A
data-silence
20
1
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル Transformers 複数言語対応
I
Vikhrmodels
74
11
Vikhr 7b 0.1
Apache-2.0
VikhrはMistralアーキテクチャに基づくロシア語モデルで、4億トークンの3ラウンド事前学習を経ており、ロシア語タスクではオリジナルのMistralを上回る性能を示しますが、コード処理の面では不足がある可能性があります。
大規模言語モデル Transformers 複数言語対応
V
Vikhrmodels
259
57
Rut5 Base
MIT
google/mt5-baseをベースにしたコンパクト版で、ロシア語と英語用に最適化され、パラメータ数が58%削減されています。
大規模言語モデル 複数言語対応
R
cointegrated
27.85k
11
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase