MT Gemma 3 12B
本プロジェクトでは、mergekitとDARE TIES方法を使用して、soob3123/amoral - gemma3 - 12B - v2とIlyaGusev/saiga_gemma3_12bの2つのモデルを統合し、より強力な言語処理能力を提供することを目的としています。
大規模言語モデル
Transformers

M
zelk12
1,348
2
Core 24B V.1
Mistral 3.1アーキテクチャを基にアップグレードした融合モデルで、ロシア語処理能力を保持しつつ対話表現を強化
大規模言語モデル
Transformers 複数言語対応

C
OddTheGreat
31
6
Vikhr YandexGPT 5 Lite 8B It
その他
YandexGPT-5-Lite-8B-pretrainをベースにした命令モデルで、ロシア語データセットGrandMaster-PRO-MAXとGrounded-RAG-RU-v2でSFT訓練されており、ロシア語と英語のタスクに優れています。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
3,058
20
Ruadaptqwen2.5 7B Lite Beta
Apache-2.0
本プロジェクトはT - lite - it - 1.0モデルをロシア語に適合させ、形態素解析器を交換し、ロシア語コーパスで継続的に事前学習し、LEP技術を適用することで、ロシア語テキストの生成速度を向上させました。
大規模言語モデル
Safetensors
R
RefalMachine
1,603
8
Ruadaptqwen2.5 32B Pro Beta
Apache-2.0
このプロジェクトは、モデルをロシア語に適合させた成果であり、形態素解析器を交換し、ロシア語コーパスでの事前学習を続け、LEP技術を適用することで、ロシア語テキストの生成速度を向上させ、ロシア語の自然言語処理に新しい解決策を提供します。
大規模言語モデル
Safetensors
R
RefalMachine
2,913
10
Meno Tiny 0.1
Apache-2.0
Qwen2.5-1.5B-Instructをファインチューニングしたロシア語コマンド最適化モデル、15億パラメータ、ロシア語と英語をサポート、RAGプロセスにおけるテキストQAに優れる
大規模言語モデル
Transformers 複数言語対応

M
bond005
764
10
Vikhr Llama 3.2 1B Instruct
Llama-3.2-1B-Instructをベースにしたロシア語最適化指令モデルで、効率が5倍向上し、低消費電力デバイスへのデプロイに適しています。
大規模言語モデル
Transformers

V
Vikhrmodels
2,915
41
Any News Sum
mT5-baseベースの多言語ニュース要約モデルで、45言語のニュースタイトルと要約生成をサポート
テキスト生成
Transformers 複数言語対応

A
data-silence
20
1
It 5.3 Fp16 32k
Apache-2.0
サイクロン0.5*はロシア語と英語をサポートするオープンソースの大規模言語モデルで、RoPEコンテキストウィンドウを32kに拡張し、JSON処理とマルチターン対話能力を最適化しました
大規模言語モデル
Transformers 複数言語対応

I
Vikhrmodels
74
11
Vikhr 7b 0.1
Apache-2.0
VikhrはMistralアーキテクチャに基づくロシア語モデルで、4億トークンの3ラウンド事前学習を経ており、ロシア語タスクではオリジナルのMistralを上回る性能を示しますが、コード処理の面では不足がある可能性があります。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
259
57
Rut5 Base
MIT
google/mt5-baseをベースにしたコンパクト版で、ロシア語と英語用に最適化され、パラメータ数が58%削減されています。
大規模言語モデル 複数言語対応
R
cointegrated
27.85k
11
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98