# 多言語命令ファインチューニング

Samastam It V1
SamastamはSarvam-1モデルの初期ガイドバリアントで、Alpaca-cleanedデータセットでファインチューニングされ、多言語命令応答をサポートします。
大規模言語モデル Transformers
S
hathibelagal
188
1
Mistral Small 24B Instruct 2501 GGUF
Apache-2.0
Mistral-Small-24B-Instruct-2501は24Bパラメータ規模の命令ファインチューニング大規模言語モデルで、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
M
bartowski
48.61k
111
Llama 3.3 70B Instruct Abliterated GGUF
Llama 3.3アーキテクチャに基づく70Bパラメータの大規模言語モデルで、多言語テキスト生成タスクをサポートし、量子化最適化により様々なハードウェア環境に適応
大規模言語モデル 複数言語対応
L
bartowski
7,786
8
Granite 3.3 2b Instruct GGUF
Apache-2.0
IBM-Graniteの20億パラメータ指導モデル、多言語と長文脈タスクをサポートし、構造化推論能力を備える。
大規模言語モデル
G
lmstudio-community
444
2
Llama 4 Scout 17B 16E Instruct Bnb 4bit
その他
これはオリジナルモデル meta-llama/Llama-4-Scout-17B-16E-Instruct の量子化バージョンで、int4量子化技術を採用し、多言語タスクに適しています。
大規模言語モデル Transformers 複数言語対応
L
bnb-community
1,286
1
Llama 4 Maverick 17B 16E Instruct 4bit
その他
meta-llama/Llama-4-Maverick-17B-128E-Instructから変換された4ビット量子化モデルで、多言語テキスト生成タスクをサポート
大規模言語モデル 複数言語対応
L
mlx-community
538
6
Llama 3.1 70B Instruct GGUF
Llama-3.1-70Bを基にした超低位量子化(1-2ビット)モデルで、IQ-DynamicGate技術を用いて精度適応型量子化を実現し、メモリ効率を維持しながら精度を向上させています。
大規模言語モデル 複数言語対応
L
Mungert
19.52k
3
Qwen2.5 7B Latent Verification
Apache-2.0
Qwen2.5-7B-Instructは通義千問大モデルシリーズの最新7Bパラメータ命令ファインチューニングモデルで、強化された知識量、コードと数学能力を備え、128Kトークンの長文コンテキストと多言語処理をサポートします。
大規模言語モデル Transformers 英語
Q
jacobpwarren
32
4
Mistral Small 3.1 24B Instruct 2503 GGUF
Apache-2.0
Mistral-Small-3.1-24B-Instruct-2503は24Bパラメータ規模の多言語命令ファインチューニングモデルで、複数の言語とタスクをサポートし、テキスト生成や対話シナリオに適しています。
大規模言語モデル 複数言語対応
M
second-state
1,059
1
Gams 9B Instruct
GaMS-9B-InstructはGoogleのGemma 2シリーズを改良したスロベニア生成モデルで、スロベニア語、英語、および一部のクロアチア語、セルビア語、ボスニア語をサポートし、テキスト生成タスクに特化しています。
大規模言語モデル Safetensors 複数言語対応
G
cjvt
1,652
2
QWQ Stock
複数のQwenシリーズ32Bパラメータモデルを融合したモデルで、Model Stock手法を用いて多言語処理能力を強化
大規模言語モデル Transformers
Q
wanlige
368
7
Salamandra 2b Instruct GGUF
Apache-2.0
GGUF形式に基づく2Bパラメータの多言語命令ファインチューニングモデルで、30以上の言語をサポートし、テキスト生成タスクに適しています。
大規模言語モデル Transformers
S
tensorblock
120
1
EXAONE 3.5 32B Instruct Llamafied
その他
これはLG AI Researchが開発したEXAONE-3.5-32B-Instructモデルのllamafiedバージョンで、英語と韓語をサポートする大規模言語モデルです。
大規模言語モデル Transformers 複数言語対応
E
beomi
483
5
Granite 3.0 3b A800m Instruct
Apache-2.0
IBMが開発した30億パラメータの命令ファインチューニング言語モデル。Granite-3.0アーキテクチャを基にし、多言語タスクと商用アプリケーションをサポート
大規模言語モデル Transformers
G
ibm-granite
5,240
18
Granite 3.0 8b Instruct
Apache-2.0
Granite-3.0-8B-Instructは、Granite-3.0-8B-Baseをファインチューニングした80億パラメータのモデルで、複数のオープンソース命令データセットと内部合成データセットの組み合わせでトレーニングされています。
大規模言語モデル Transformers
G
ibm-granite
24.29k
201
Llama 3.2 3B Instruct Q8 0 GGUF
Llama 3.2はMetaがリリースした30億パラメータの命令ファインチューニング大規模言語モデルで、多言語テキスト生成タスクをサポート
大規模言語モデル 複数言語対応
L
hugging-quants
26.89k
46
Llama 3.2 1B Instruct Q8 0 GGUF
これはMetaがリリースしたLlama 3.2シリーズの10億パラメータ命令ファインチューニングモデルで、GGUF形式に変換されllama.cppでの使用が容易
大規模言語モデル 複数言語対応
L
hugging-quants
64.04k
31
Gemma 2 2b Jpn It
Gemma 2 JPNは日本語テキストでファインチューニングされたGemma 2 2Bモデルで、優れた日本語処理能力を持ち、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers 日本語
G
google
7,510
183
Mistral Nemo Instruct 2407
Apache-2.0
Mistral-Nemo-Instruct-2407はMistral-Nemo-Base-2407を基に命令ファインチューニングされた大規模言語モデルで、Mistral AIとNVIDIAが共同でトレーニングを行い、同規模またはそれ以下の既存モデルを性能で凌駕しています。
大規模言語モデル Transformers 複数言語対応
M
mistralai
149.79k
1,519
Llama 3 Wissenschaft 8B
その他
Llama-3-8bをベースに構築された多言語混合モデルで、ドイツ語、イタリア語、英語の能力を統合
大規模言語モデル Transformers
L
nbeerbower
15
4
Llamantino 3 ANITA 8B Inst DPO ITA
LLaMAntino-3-ANITAはMeta Llama 3をベースに構築された多言語(英語+イタリア語)大規模言語モデルで、イタリア語NLPタスクに最適化されています。
大規模言語モデル Transformers 複数言語対応
L
swap-uniba
6,401
25
Mixtral 8x22B Instruct V0.1
Apache-2.0
Mixtral-8x22B-Instruct-v0.1はMixtral-8x22B-v0.1を基に命令ファインチューニングされた大規模言語モデルで、複数言語と関数呼び出し機能をサポートしています。
大規模言語モデル Transformers 複数言語対応
M
mistralai
12.80k
723
Indic Gemma 2b Finetuned Sft Navarasa 2.0
その他
Gemma-2bをファインチューニングした多言語命令モデルで、15のインド言語と英語をサポート
大規模言語モデル Transformers 複数言語対応
I
Telugu-LLM-Labs
166
24
Calme 7B Instruct V0.2
Apache-2.0
Calme-7BはMistral-7Bをファインチューニングした70億パラメータの言語モデルで、明確で平和的かつ一貫性のあるテキスト生成に優れています。
大規模言語モデル Transformers
C
MaziyarPanahi
15
14
Mistral 7B Instruct Aya 101
Apache-2.0
Mistral-7B-Instruct-v0.2をファインチューニングした多言語命令追従モデル、101言語をサポート
大規模言語モデル Transformers 複数言語対応
M
MaziyarPanahi
92
12
Aya 101
Apache-2.0
Aya 101は101言語の命令をサポートする大規模多言語生成型言語モデルで、様々な評価で同類のモデルを上回っています。
大規模言語モデル Transformers 複数言語対応
A
CohereLabs
3,468
640
Mixtral 8x7B Instruct V0.1
Apache-2.0
Mixtral-8x7Bは事前学習済みの生成的スパース混合エキスパートモデルで、ほとんどのベンチマークテストでLlama 2 70Bを上回る性能を示しています。
大規模言語モデル Transformers 複数言語対応
M
mistralai
505.97k
4,397
Bigtranslate
BigTranslateはLLaMA-13Bを拡張した多言語翻訳モデルで、100以上の言語の翻訳タスクをサポートします。
機械翻訳 Transformers
B
James-WYang
156
50
Flan T5 Xxl Sharded Fp16
Apache-2.0
FLAN-T5 XXLはGoogleがリリースしたT5モデルのバリアントで、1000以上の追加タスクでファインチューニングされており、複数の言語をサポートし、オリジナルのT5モデルよりも優れた性能を発揮します。
大規模言語モデル Transformers
F
philschmid
531
54
Flan T5 Xl
Apache-2.0
FLAN-T5 XLはT5アーキテクチャに基づく命令ファインチューニング言語モデルで、1000以上のタスクでファインチューニング後、多言語および少数サンプル性能が大幅に向上しました。
大規模言語モデル 複数言語対応
F
google
257.40k
494
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase