# 指令微調整

Tencent.hunyuan A13B Instruct GGUF
騰訊混元A13B指令モデルの量子化バージョンで、技術的手段により性能を維持しながら実行効率を向上させます。
大規模言語モデル
T
DevQuasar
402
1
Gemma 3n E4B It
Gemma 3nはGoogleが開発した軽量で最先端のオープンソースのマルチモーダルモデルファミリーで、Geminiモデルと同じ研究と技術に基づいて構築され、テキスト、オーディオ、ビジュアル入力をサポートします。
画像生成テキスト Transformers
G
google
1,690
81
Fanar 1 9B Instruct
Apache-2.0
Fanar-1-9B-Instructは、カタール計算研究機関(QCRI)によって開発された強力なアラビア語 - 英語の大規模言語モデルです。現代標準アラビア語と複数のアラビア方言をサポートし、イスラムの価値観とアラビア文化に整合しています。
大規模言語モデル Transformers 複数言語対応
F
QCRI
115
1
Qwen2.5 1.5B S1k 1.1
このモデルはQwen/Qwen2.5-1.5B-Instructをベースに微調整されたテキスト生成モデルで、TRLを使用して訓練され、テキスト生成タスクに強力なサポートを提供します。
大規模言語モデル Transformers
Q
rvindra
1,312
1
Spatial LLaVA 7B Gguf
Apache-2.0
Spatial-LLaVA-7BはLLaVAモデルを微調整したマルチモーダルモデルで、空間関係推論能力の向上に特化しており、マルチモーダル研究やチャットボット開発に適しています。
テキスト生成画像 Safetensors
S
rogerxi
252
1
Gemma 3 12b It GGUF
Gemma 3 12Bは大型言語モデルで、GGUF形式の量子化バージョンを提供し、ローカルデプロイと使用に適しています。
大規模言語モデル Transformers
G
tensorblock
336
1
Llama 3.1 8b Medusa V1.01
Llama 3.1アーキテクチャに基づく8Bパラメータの言語モデルで、mergekitを使って複数の専門モデルをマージして作成され、テキスト生成タスクで優れた性能を発揮します。
大規模言語モデル Transformers
L
Nexesenex
95
3
Magnolia V3 Gemma2 8k 9B
Magnolia-v3-Gemma2-8k-9Bは、mergekitを使って事前学習言語モデルをマージすることで作成されたモデルで、テキスト生成に新しい解決策を提供します。
大規模言語モデル Transformers
M
grimjim
2,045
3
Lumimaid Magnum V4 12B
LumimaidとMagnum v4をDELLAマージ方法でマージし、Claude入力最適化を施したNemoモデルを加えた12Bパラメータの大規模言語モデル
大規模言語モデル Transformers
L
Undi95
235
23
Gemma SEA LION V3 9B
Gemma-SEA-LION-v3-9Bは、東南アジア地域向けに最適化された多言語大規模言語モデルで、11種類の東南アジアの公用語をサポートしています。
大規模言語モデル Transformers 複数言語対応
G
aisingapore
2,160
5
Snakmodel 7b Instruct
SnakModelは、デンマーク語用に特別に設計された70億パラメータの大規模言語モデルで、Llama 2アーキテクチャに基づいており、コペンハーゲンIT大学によって開発されました。
大規模言語モデル Transformers その他
S
NLPnorth
134
5
Teuken 7B Instruct Research V0.4
その他
Teuken-7B-instruct-research-v0.4は、指令微調整された70億パラメータの多言語大規模言語モデルで、24種類のEU公式言語をサポートし、欧州の価値観と多言語タスクシナリオに特化しています。
大規模言語モデル Transformers 複数言語対応
T
openGPT-X
1,443
81
Mistral Small Instruct 2409 Abliterated
その他
これはmistralai/Mistral-Small-Instruct-2409に基づくアブレーションモデルで、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers 複数言語対応
M
byroneverson
11.24k
14
Meltemi 7B Instruct V1.5
Apache-2.0
Meltemi 7B Instruct v1.5は、Mistral 7Bをベースに改良されたギリシャ語指令微調整大規模言語モデルで、ギリシャ語の自然言語処理タスクに特化しています。
大規模言語モデル Transformers
M
ilsp
1,237
21
Mini Magnum 12b V1.1
Apache-2.0
Mini Magnumはmagnum-72b-v1の軽量化バージョンで、Claude 3シリーズ(特にSonnetとOpus)のテキスト品質を再現することを目的としています。Mistral-Nemo-Base-2407をベースに微調整され、新しい汎用指令データセットを追加して、一貫性と整合性を向上させています。
大規模言語モデル Transformers 複数言語対応
M
intervitens
1,728
79
Norwai Mixtral 8x7B Instruct
NorwAI-Mixtral-8x7Bをベースに指令調整を行ったノルウェー語の大規模言語モデルで、約9000件の高品質なノルウェー語指令で最適化されています。
大規模言語モデル Transformers
N
NorwAI
144
2
Ko Llama 3 8B Instruct
Ko-Llama-3-8B-Instructは、韓国語言語モデルの性能向上を目的として開発されたモデルで、Meta-Llama-3-8B-Instructをベースに教師付き微調整を行っています。
大規模言語モデル Transformers 複数言語対応
K
davidkim205
140
8
Mmed Llama 3 8B EnIns
MMedLMは医学分野に特化した多言語言語モデルで、Llama 3アーキテクチャに基づいており、医学質問応答などのタスクで優れた性能を発揮します。
大規模言語モデル Transformers 複数言語対応
M
Henrychur
786
5
Neuralllama 3 8b ORPO V0.3
Apache-2.0
meta-llama/Meta-Llama-3.1-8B-Instructをベースに最適化された言語モデルで、スペイン語テキスト生成に長けています。
大規模言語モデル Transformers
N
Kukedlc
11.62k
3
Meta Llama 3 70B Instruct GGUF
Llama 3 70B InstructのGGUF形式のバージョンで、より効率的なローカル実行体験を提供します。
大規模言語モデル Transformers 英語
M
PawanKrd
468
4
Mistral 7b Instruct V0.2.q5 K M.gguf
Apache-2.0
Mistral 7B Instruct v0.2は、Mistral 7Bモデルをベースにした指令微調整版で、テキスト生成タスクに適しています。
大規模言語モデル
M
dataequity
114
2
Openmath CodeLlama 7b Python Hf
OpenMathモデルは、テキスト推理とPythonインタープリターで実行されるコードブロックを統合することで、数学問題を解くために特別に設計されています。OpenMathInstruct-1データセットを基に訓練され、180万の数学問題と解決策のペアを含んでいます。
大規模言語モデル Transformers 複数言語対応
O
nvidia
83
7
Pivot 0.1 Evil A GGUF
PiVoT-0.1-Evil-aはMistral 7Bをベースに微調整された韓英バイリンガルモデルで、さまざまな量子化形式のGGUFファイルを提供し、異なるハードウェア環境に適しています。
大規模言語モデル Transformers 複数言語対応
P
TheBloke
280
28
Mistral 7B Instruct V0.1 GPTQ
Apache-2.0
Mistral 7B Instruct v0.1のGPTQ量子化バージョンで、ExLlamaまたはTransformersフレームワークでの実行をサポートします。
大規模言語モデル Transformers
M
TheBloke
7,481
82
Llava Llama 2 13b Chat Lightning Preview
LLaVAはオープンソースのマルチモーダルチャットボットモデルで、Transformerアーキテクチャに基づき、GPTが生成したマルチモーダル指令追従データでLLaMA/Vicunaを微調整することで得られます。
テキスト生成画像 Transformers
L
liuhaotian
2,122
46
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase