# 命令微調整最適化

Gemma 3n E4B It Litert Preview GGUF
Gemma-3n-E4B-it-litert-previewはGoogleのGemma 3nモデルを微調整したバージョンで、画像とテキスト入力をサポートし、テキスト出力を生成し、マルチモーダルタスクに適しています。
画像生成テキスト Transformers 英語
G
unsloth
134
1
Gervasio 8b Portuguese Ptpt Decoder
MIT
Gervásio 8B PTPTはポルトガル語向けのオープンソースデコーダーモデルで、LLaMA 3.1 8B Instructを微調整したもので、強力なテキスト生成能力を備えています。
大規模言語モデル Transformers その他
G
PORTULAN
105
1
Tiiuae.falcon H1 34B Instruct GGUF
Falcon-H1-34B-Instructは34Bパラメータ規模の大規模言語モデルで、命令追従タスクに特化しています。
大規模言語モデル
T
DevQuasar
319
1
Hyperclovax SEED Text Instruct 0.5B GGUF
その他
llama.cppで生成された0.5Bパラメータ規模のテキスト生成モデルで、命令型テキスト生成タスクをサポート
大規模言語モデル
H
Mungert
407
1
Thedrummer Rivermind Lux 12B V1 GGUF
これは12Bパラメータの大規模言語モデルで、llama.cppのimatrix量子化処理を経ており、さまざまなハードウェアニーズに対応する複数の量子化バージョンを提供します。
大規模言語モデル
T
bartowski
1,353
1
MN Nyx Chthonia 12B
これは複数の12Bパラメータ規模モデルを統合したバージョンで、model_stockメソッドを用いて7つの異なる特性を持つ事前学習済み言語モデルを融合し、総合能力を強化しています。
大規模言語モデル Transformers
M
mergekit-community
31
2
Granite 3.3 8b Instruct Q8 0 GGUF
Apache-2.0
このモデルはIBM Granite-3.3-8B命令微調整モデルから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル
G
NikolayKozloff
36
2
Opencodereasoning Nemotron 7B
Apache-2.0
OpenCodeReasoning-Nemotron-7B は Qwen2.5-7B-Instruct を基に開発された大規模言語モデルで、コード生成と推論タスクに特化しており、32Kトークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
O
nvidia
5,410
30
Llama SEA LION V3.5 70B R
Llama-SEA-LION-v3.5-70B-Rは東南アジア言語に最適化されたハイブリッド機能大規模言語モデルで、13言語をサポートし、複雑な推論と汎用テキスト生成能力を備えています。
大規模言語モデル Transformers 複数言語対応
L
aisingapore
2,406
1
Flan T5 Titlegen Springer
MIT
google/flan-t5-baseを微調整したモデルで、科学的な要約を簡潔なタイトルに凝縮する抽象的な要約生成タスクに特化しています。
テキスト生成 Transformers 英語
F
tiam4tt
236
0
Qwen.qwen2.5 VL 3B Instruct GGUF
Qwen2.5-VL-3B-Instructは3Bパラメータの視覚言語モデルで、画像とテキストからテキストを生成するタスクをサポートします。
画像生成テキスト
Q
DevQuasar
1,107
3
Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
Llama-3.1アーキテクチャに基づく8Bパラメータの大規模言語モデルで、様々な量子化バージョンのGGUF形式ファイルを提供
大規模言語モデル 英語
L
tensorblock
44
1
T3Q Qwen2.5 14b V1.0 E3
Apache-2.0
Qwen/Qwen2.5-14B-Instruct-1Mモデルをベースにファインチューニングしたバージョンで、LoRA-8-4-0.0001-cosine-32-16設定を使用し、トレーニングデータはtrain_data_v1.0です。
大規模言語モデル Transformers 複数言語対応
T
JungZoona
1,557
25
Qwq 32B Gptqmodel 4bit Vortex V1
Apache-2.0
QwQ-32BはQwen2アーキテクチャに基づく32Bパラメータの大規模言語モデルで、GPTQ手法による4ビット整数量子化処理が施されており、効率的なテキスト生成タスクに適しています。
大規模言語モデル Safetensors 英語
Q
ModelCloud
1,620
11
Llama 3.1 8B UltraLong 1M Instruct
Nemotron-UltraLong-8Bシリーズは、超長文テキストシーケンスの処理に特化した言語モデルで、最大400万トークンのコンテキストウィンドウをサポートし、卓越した性能を維持します。
大規模言語モデル Transformers 英語
L
nvidia
1,387
26
Llama Krikri 8B Instruct GGUF
Llama-3.1-8Bをベースに構築されたギリシャ語命令調整大規模言語モデルで、ギリシャ語能力を強化し多言語タスクをサポート
大規模言語モデル Transformers
L
ilsp
257
11
Progenitor V3.3 LLaMa 70B
本プロジェクトは、複数の70B規模の事前学習言語モデルを融合することで、より高性能な言語モデルを創造することを目的としています。Llama 3.3命令モデルをベースに、Linear DELLA融合方法を用いてモデル融合を行います。
大規模言語モデル Transformers
P
Tarek07
101
10
Llama SEA LION V3 8B IT
SEA-LIONは、東南アジア地域向けに事前学習と命令微調整を行った一連の大規模言語モデルで、この地域の多言語処理問題の解決に取り組み、東南アジア言語の自然言語処理に強力なサポートを提供します。
大規模言語モデル Transformers 複数言語対応
L
aisingapore
3,954
7
Ichigo Llama3.1 S Instruct V0.4
Apache-2.0
Llama-3アーキテクチャに基づくマルチモーダル言語モデルで、音声とテキストの入力を理解し、ノイズ耐性とマルチターン対話能力を備えています
テキスト生成オーディオ 英語
I
homebrewltd
486
19
Hymba 1.5B Instruct
その他
Hymba-1.5B-Baseを基に命令微調整された15億パラメーターモデルで、数学的推論、関数呼び出し、ロールプレイなどの複雑なタスク処理能力を備える
大規模言語モデル Transformers
H
nvidia
3,547
227
Videollama2.1 7B 16F Base
Apache-2.0
VideoLLaMA2.1はVideoLLaMA2のアップグレード版で、ビデオ大規模言語モデルにおける時空間モデリングと音声理解能力の向上に焦点を当てています。
ビデオ生成テキスト Transformers 英語
V
DAMO-NLP-SG
179
1
Videollama2.1 7B 16F
Apache-2.0
VideoLLaMA 2はマルチモーダル大規模言語モデルで、動画理解に特化し、時空間モデリングと音声理解能力を備えています。
テキスト生成ビデオ Transformers 英語
V
DAMO-NLP-SG
2,813
10
Llama 3.1 8B Dragonfly V2
トンボはLlama 3.1をベースに命令微調整で訓練されたマルチモーダル視覚言語モデルで、画像とテキストの統合的理解と生成をサポートします
画像生成テキスト 英語
L
togethercomputer
113
1
Mini Ichigo Llama3.2 3B S Instruct
Apache-2.0
Ichigo-llama3sシリーズモデルはHomebrew Researchが開発したマルチモーダル言語モデルで、音声とテキストの入力をネイティブに理解できます。このモデルはLlama-3アーキテクチャを基盤としており、WhisperVQを音声ファイルトークナイザーとして使用してトレーニングされ、音声理解能力が向上しています。
テキスト生成オーディオ Safetensors 英語
M
Menlo
22
34
Ichigo Llama3.1 S Instruct V0.3 Phase 2
Apache-2.0
Ichigo-llama3sシリーズモデルは音声とテキスト入力をネイティブで理解可能で、Llama-3アーキテクチャを基盤とし、WhisperVQをオーディオファイルのトークナイザーとして使用しています。
テキスト生成オーディオ 英語
I
homebrewltd
16
5
Eurollm 1.7B
Apache-2.0
EuroLLM-1.7BはEuroLLMシリーズの最初の事前学習モデルで、多言語処理能力を備え、様々な欧州言語やその他の関連言語のテキストを理解し生成することができます。
大規模言語モデル Transformers 複数言語対応
E
utter-project
3,444
65
Magnum V2 12b
Apache-2.0
magnum-v2-12bはシリーズモデルの4番目のモデルで、Claude 3シリーズモデル(特にSonnetとOpus)のテキスト品質を再現することを目的としています。Mistral-Nemo-Base-2407をベースに微調整され、強力なテキスト生成能力を備えています。
大規模言語モデル Safetensors 複数言語対応
M
anthracite-org
18.68k
89
Mistral Nemo Base 2407 Chatml
Apache-2.0
Mistral-Nemo-Base-2407はMistral AIとNVIDIAが共同でトレーニングした120億パラメータの生成型テキスト事前学習モデルで、同規模またはより小規模のモデルを性能で凌駕しています。
大規模言語モデル Transformers 複数言語対応
M
IntervitensInc
191
3
Meta Llama 3.1 405B Instruct GGUF
Meta-Llama-3.1-405B-Instructは、Llama 3.1アーキテクチャに基づく4050億パラメータの大規模言語モデルで、命令追従タスクに最適化され、複数の言語をサポートしています。
大規模言語モデル 複数言語対応
M
MaziyarPanahi
189.43k
14
Meta Llama 3.1 8B Instruct GGUF
Llama-3.1-8B-Instruct は Meta がリリースした80億パラメータ規模の大規模言語モデルで、命令追従タスクに特化しています。
大規模言語モデル
M
DevQuasar
485
3
Tarsier 34b
Apache-2.0
Tarsier-34bは、高品質なビデオ説明の生成に特化したオープンソースの大規模ビデオ言語モデルで、複数の公開ベンチマークでリーディングスコアを達成しています。
ビデオ生成テキスト Transformers
T
omni-research
103
17
Llama3 8B Cn Rochat V1
Apache-2.0
hfl/llama-3-chinese-8b-instruct-v3を基に命令微調整を行った中国語ロールプレイング最適化モデル
大規模言語モデル Transformers
L
RochatAI
14
7
Orca Mini V5 8b Dpo
Llama 3アーキテクチャに基づく8Bパラメータモデル、複数のDPOデータセットでトレーニングされ、テキスト生成タスクに特化
大規模言語モデル Transformers 英語
O
pankajmathur
16
3
Wizardlm 2 7B Abliterated
Apache-2.0
WizardLM-2-7Bのアブレーションバージョン、特定の行動パターンを最適化するために直交化処理を施した
大規模言語モデル Transformers
W
fearlessdots
237
14
Mistral 7B V0.3
Apache-2.0
Mistral-7B-v0.3はMistral-7B-v0.2をアップグレードした大規模言語モデルで、主な改善点は語彙表を32768トークンに拡張したことです。
大規模言語モデル Transformers
M
mistralai
442.55k
472
Llama 3 Stinky V2 8B
その他
これはLlama-3アーキテクチャに基づく8Bパラメータモデルで、mergekitツールを使用して複数の事前学習モデルを統合し、優れたテキスト生成能力を備えています。
大規模言語モデル Transformers
L
nbeerbower
39
5
Xgen Mm Phi3 Mini Base R V1
Apache-2.0
XGen-MMはSalesforce AI Researchが開発した最新のマルチモーダル大規模モデルシリーズで、BLIPの成功設計を基に、基礎的な強化によりより強力で優れたモデルアーキテクチャを実現しました。
画像生成テキスト Transformers 英語
X
Salesforce
240
18
Idefics2 8b Chatty
Apache-2.0
Idefics2はオープンなマルチモーダルモデルで、任意のシーケンスの画像とテキスト入力を受け取り、テキスト出力を生成できます。このモデルは画像に関する質問に答えたり、視覚的コンテンツを説明したり、複数の画像に基づいてストーリーを作成したり、純粋な言語モデルとして使用したりできます。
画像生成テキスト Transformers 英語
I
HuggingFaceM4
617
94
Mistral 7b V0.3 Summarizer
Mistral-7B-Instruct-v0.3は、Mistral-7Bをベースにした命令調整バージョンで、人間の指示に従うテキスト生成タスクに特化しています。
大規模言語モデル Transformers 英語
M
devesh-2002
22
0
Granite 8b Code Instruct 4k
Apache-2.0
Granite-8B-Code-Instruct-4Kは80億パラメータのコード命令モデルで、Granite-8B-Code-Base-4Kを基に、さまざまな許可された命令データで微調整されており、論理的推論や問題解決スキルを含む命令遵守能力が強化されています。
大規模言語モデル Transformers その他
G
ibm-granite
1,481
110
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase