# 命令ファインチューニング

Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 は Kakao Corp によって開発された 8B パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
K
DevQuasar
483
1
Marin Community.marin 8b Instruct GGUF
marin-8b-instruct は8Bパラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
M
DevQuasar
343
1
Bielik 1.5B V3.0 Instruct GGUF
Apache-2.0
これはポーランド語の1.5Bパラメータ命令ファインチューニングモデルで、SpeakLeashのBielikシリーズを基に開発され、テキスト生成タスクに適しています。
大規模言語モデル その他
B
speakleash
341
3
Allenai.olmo 2 0425 1B Instruct GGUF
OLMo-2-0425-1B-InstructはAllenAIが開発した10億パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル
A
DevQuasar
220
1
Olmo 2 0425 1B Instruct GGUF
Apache-2.0
OLMo 2 1B命令版はOLMo-2-0425-1B-RLVR1モデルのポストトレーニングバリアントで、教師ありファインチューニング、DPOトレーニング、RLVRトレーニングを経ており、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル 英語
O
unsloth
3,137
3
Stablelm Zephyr 3b GGUF
その他
StableLM Zephyr 3Bは30億パラメータの命令チューニングモデルで、公開データセット、合成データセット、直接選好最適化(DPO)でトレーニングされ、優れた性能を発揮します。
大規模言語モデル 英語
S
brittlewis12
51
1
Aya 23 8B
Aya-23はオープンウェイトの命令ファインチューニングモデルの研究バージョンで、高度に先進的な多言語能力を備え、23言語をサポートしています。
大規模言語モデル Transformers 複数言語対応
A
CohereLabs
10.28k
415
Nousresearch DeepHermes 3 Llama 3 3B Preview GGUF
Llama-3-3Bアーキテクチャをベースにした命令ファインチューニングモデルで、対話、推論、ロールプレイなどのタスクをサポートし、汎用人工知能アシスタントシナリオに適しています。
大規模言語モデル 英語
N
bartowski
1,033
3
Gemma 2 Llama Swallow 2b It V0.1
Gemma-2-Llama-Swallowシリーズはgemma-2モデルを継続的に事前学習することで構築され、日本語処理能力を大幅に強化しながら、元の英語能力を保持しています。
大規模言語モデル Transformers 複数言語対応
G
tokyotech-llm
61
1
Bielik 4.5B V3.0 Instruct
Apache-2.0
Bielik-4.5B-v3-Instructは46億パラメータを持つポーランド語生成テキストモデルで、Bielik-4.5B-v3を基に命令ファインチューニングされており、優れたポーランド語理解と処理能力を示します。
大規模言語モデル Transformers その他
B
speakleash
1,121
13
Multilingual E5 Large Instruct Q8 0 GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポートし、強力なクロスランゲージ能力を備えています。
大規模言語モデル 複数言語対応
M
Gomez12
90
1
Latxa Llama 3.1 70B Instruct
Latxa 3.1 70B InstructはLlama-3.1 (Instruct)を基にした命令ファインチューニング版で、バスク語に最適化されており、複数のバスク語ベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
L
HiTZ
59
3
Allura Org Gemma 3 Glitter 4B GGUF
allura-org/Gemma-3-Glitter-4Bを変換したGGUF形式モデルファイル、imatrix量子化で性能を最適化
大規模言語モデル 英語
A
ArtusDev
69
1
Doge 320M Instruct
Apache-2.0
Doge 320M 指導版は動的マスクアテンションを基にした軽量言語モデルで、教師ありファインチューニング(SFT)と直接選好最適化(DPO)で訓練され、質問応答や対話タスクに適しています。
大規模言語モデル Transformers 英語
D
SmallDoge
12.61k
3
Mistral Small 3.1 24B Instruct 2503 GPTQ 4b 128g
Apache-2.0
本モデルはMistral-Small-3.1-24B-Instruct-2503をINT4量子化したバージョンで、GPTQアルゴリズムにより重みを16ビットから4ビットに削減し、ディスクサイズとGPUメモリ要件を大幅に削減しました。
大規模言語モデル
M
ISTA-DASLab
21.89k
13
Qwen2.5 Bakeneko 32b Instruct V2
Apache-2.0
Qwen2.5 Bakeneko 32Bをベースとした命令ファインチューニングバリアントで、Chat VectorとORPO最適化により命令追従能力を強化し、日本語MT-Benchで優れた性能を発揮します。
大規模言語モデル Transformers 日本語
Q
rinna
140
6
Teacher Persona GGUF
Qwen2-1.5B-Instructはアリババクラウドが提供する15億パラメータ規模の命令ファインチューニング大規模言語モデルで、Q&Aや対話タスクに適しています。
大規模言語モデル
T
RyZhangHason
24
1
Google.gemma 3 4b It GGUF
Gemma 3.4B IT は Google が開発した34億パラメータの大規模言語モデルで、命令チューニングバージョンに特化しており、様々な自然言語処理タスクに適しています。
大規模言語モデル
G
DevQuasar
141
1
Traceback 12b
Apache-2.0
TraceBack 12b は Mistral-Nemo-Instruct アーキテクチャに基づく4ビット量子化バージョンで、命令追従と思考連鎖推論タスクに特化しています。
大規模言語モデル Transformers
T
secemp9
1,470
29
Latxa Llama 3.1 8B Instruct
LatxaはLlama-3.1アーキテクチャに基づくバスク語命令ファインチューニング大規模言語モデルで、バスク語に最適化されており、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers
L
HiTZ
1,827
9
Huihui Ai.qwen2.5 14B Instruct 1M Abliterated GGUF
14Bパラメータ規模の大規模言語モデルで、命令追従タスクに特化し、テキスト生成能力をサポートします。
大規模言語モデル
H
DevQuasar
550
1
Guardreasoner 8B
Apache-2.0
GuardReasoner 8Bはmeta-llama/Llama-3.1-8Bをファインチューニングしたモデルで、推論型LLMセキュリティ保護に特化
大規模言語モデル Transformers
G
yueliu1999
480
2
Lake 1 Advanced
MIT
Mistral-7B-Instruct-v0.3はMistral-7B-v0.3を基に命令ファインチューニングされた大規模言語モデルで、関数呼び出しと拡張語彙表をサポートしています。
大規模言語モデル
L
BICORP
62
2
Dorna2 Llama3.1 8B Instruct
Dorna2-Llama3.1-8B-InstructはPart AIが開発したMeta Llama 3.1 Instructベースの80億パラメータ大規模言語モデルで、ペルシャ語に特化して最適化されています。
大規模言語モデル Transformers 複数言語対応
D
PartAI
844
16
Chinese Text Correction 7b
Apache-2.0
Qwen2.5-7B-Instruct は Qwen2.5 アーキテクチャに基づく 7B パラメータ規模の中国語命令ファインチューニング大規模言語モデルで、テキスト生成と推論タスクに適しています。
大規模言語モデル Transformers 中国語
C
shibing624
522
16
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100wは、Meta-Llama-3.1-8B-Instructを1.4Bパラメータ規模にプルーニングし、LLM-Neoメソッド(LoRAと知識蒸留を組み合わせた)でファインチューニングした効率的な言語モデルです。トレーニングデータはBAAI/Infinity-Instructの100万行からサンプリングされています。
大規模言語モデル Transformers
L
yang31210999
39
2
Exaone3 Instructrans V2 Enko 7.8b
exaone-3-7.8B-itで訓練された英韓翻訳モデルで、命令データセットの翻訳タスクに特化
機械翻訳 Transformers 複数言語対応
E
Translation-EnKo
45
7
Multilingual E5 Large Instruct GGUF
MIT
多言語E5大型命令モデル、100以上の言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
KeyurRamoliya
224
3
Jais Family 1p3b Chat
Apache-2.0
Jaisシリーズ13億パラメータのアラビア語-英語バイリンガル大規模言語モデル、卓越したアラビア語能力に最適化され、強力な英語能力も備える
大規模言語モデル 複数言語対応
J
inceptionai
479
6
Meta Llama 3.1 8B Instruct Summarizer
Apache-2.0
Llama 3.1をファインチューニングした多言語テキスト要約モデルで、英語、スペイン語、中国語をサポートし、最適化されたTransformerアーキテクチャとRLHF技術により出力を最適化しています。
大規模言語モデル Transformers
M
raaec
305
2
Cere Llama 3.1 8B Tr
Llama3.1 8B大規模言語モデルを基にトルコ語向けに最適化したファインチューニング版、トレーニングデータは高品質なトルコ語命令セットから取得
大規模言語モデル Transformers その他
C
CerebrumTech
41
3
Meta Llama 3.1 8B Instruct GPTQ INT4
これはMeta-Llama-3.1-8B-InstructモデルのINT4量子化バージョンで、GPTQアルゴリズムを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル Transformers 複数言語対応
M
hugging-quants
128.18k
25
Gemma 2 2b It
GemmaはGoogleが提供する軽量級オープンモデルシリーズで、Geminiモデルを構築した技術を基に開発されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
342.64k
1,064
Adapter Phi 3 Mini 4k Instruct Summarization
Apache-2.0
Phi-3-mini-4k-instruct はマイクロソフトがリリースした小型の命令ファインチューニング言語モデルで、Phi-3 アーキテクチャに基づいており、様々な自然言語処理タスクに適しています。
大規模言語モデル 英語
A
zhhan
28
1
Qwama 0.5B Instruct
Apache-2.0
Qwen2-0.5B命令モデルを基に改造、Llama-3の語彙を使用した0.5Bパラメータの命令モデルで、主にLlama-3-70Bのドラフトジェネレーターとして使用
大規模言語モデル Transformers
Q
turboderp
2,822
16
Hathor Stable V0.2 L3 8B
その他
HathorはLlama 3 8B命令モデルをベースに訓練された拡張版で、プライベートデータ、合成命令データ、ライト/クラシック小説データの混合、およびロールプレイ対話ペアを統合しています。
大規模言語モデル Transformers 英語
H
Nitral-AI
254
61
Llama 3 ChocoLlama 8B Instruct
Llama-3-8Bをベースとしたオランダ語命令最適化大規模モデル。複数のオランダ語命令データセットでSFTとDPOによるファインチューニングを実施
大規模言語モデル Transformers その他
L
ChocoLlama
268
6
Tess V2.5 Phi 3 Medium 128k 14B
MIT
Microsoft Phi-3-medium-128k-instructをファインチューニングした大規模言語モデルで、ChatML形式の対話をサポート
大規模言語モデル Transformers
T
migtissera
4,932
4
Omost Dolphin 2.9 Llama3 8b 4bits
OmostがリリースしたLlama3-8Bベースの命令ファインチューニングモデルで、Dolphin-2.9データセットで事前学習され、4ビットNF4形式で量子化されています。
大規模言語モデル Transformers
O
lllyasviel
106
6
Luxia 21.4b Alignment V1.2
Apache-2.0
LUXIA-21.4B-Alignmentは214億パラメータを持つ大規模言語モデルで、様々な自然言語処理タスクで卓越した性能を発揮します。
大規模言語モデル Transformers 英語
L
saltlux
1,839
9
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase