# 命令最適化

Phi Mini MoE Instruct GGUF
MIT
Phi-mini-MoEは、英語のビジネスや研究シーンに適した軽量級のエキスパートミックス(MoE)モデルで、リソースが制限された環境や低遅延シーンで優れた性能を発揮します。
大規模言語モデル 英語
P
gabriellarson
2,458
1
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instructは38億パラメータの軽量で最先端のオープンソースモデルで、Phi-3データセットを使用して訓練され、高品質と推論集中特性に重点を置いています。
大規模言語モデル
P
brittlewis12
170
1
Qwen3 Embedding 4B GGUF
Apache-2.0
Qwen3-Embedding-4BはQwen3シリーズに基づいて構築されたテキスト埋め込みモデルで、テキスト埋め込みとソートタスクに特化して設計され、多言語テキスト処理やコード検索などの分野で優れた性能を発揮します。
テキスト埋め込み
Q
Mungert
723
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型および混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
290
1
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct は Qwen2.5 アーキテクチャに基づく 7B パラメータ規模のコード生成モデルで、命令微調整に特化しており、コード生成やプログラミング支援タスクに適しています。
大規模言語モデル PyTorch
A
averntech
87
1
QWEN 3B INSTRUC Medical COT SFT 2kstep 4kcol
Apache-2.0
Qwen2.5アーキテクチャに基づく3Bパラメータの命令ファインチューニングモデル、UnslothとHuggingface TRLライブラリでトレーニング速度を最適化
大規模言語モデル Transformers 英語
Q
hailong18102002
30
1
Esotericknowledge 24B
これは24Bパラメータ規模の統合言語モデルで、TIESメソッドを用いて複数の24B規模の事前学習モデルを融合し、高品質なテキスト生成と理解能力を提供することに特化しています。
大規模言語モデル Transformers
E
yamatazen
122
4
Llama381binstruct Summarize Short Merged
その他
Meta-Llama-3.1-8B-Instructをベースにした統合モデルで、法律分野の要約タスク向けに微調整されており、法律用語を簡潔で分かりやすい要約に変換できます。
大規模言語モデル
L
FlamingNeuron
42
0
Qwen2.5 7B YOYO Super
Apache-2.0
Qwen2.5-7B-YOYO-super は、ベースモデルとファインチューニングモデルを統合して最適化されたオープンソースの大規模言語モデルで、命令追従、数学、コーディング能力の向上に焦点を当てています。
大規模言語モデル Transformers 複数言語対応
Q
YOYO-AI
17
3
Space Voice Label Detect Beta
Apache-2.0
Qwen2.5-VL-3Bモデルを基にしたファインチューニング版で、UnslothとHuggingface TRLライブラリを使用して訓練され、推論速度が2倍向上
テキスト生成画像 Transformers 英語
S
devJy
38
1
Qwen2.5 14B Dpo It Ties
Qwen2.5-14BモデルをベースにTIES手法で融合した強化版で、命令追従と対話最適化に特化
大規模言語モデル Transformers
Q
mergekit-community
30
2
Qwen2.5 14B YOYO V5
Apache-2.0
Qwen2.5-YOYO第五世代モデル、複数の先進モデルの特徴を統合し、モデル統合式を最適化、100万トークンのコンテキストをサポート。
大規模言語モデル Safetensors 複数言語対応
Q
YOYO-AI
33
3
Etherealaurora 12B V2
ChatMLアーキテクチャに基づく対話モデルで、mergekitツールを使用して事前訓練された言語モデルを統合して生成
大規模言語モデル Transformers 複数言語対応
E
yamatazen
859
16
Multilingual E5 Large Instruct GGUF
MIT
多言語E5大型命令モデル、複数言語のテキスト埋め込みと分類タスクをサポート
大規模言語モデル 複数言語対応
M
Impulse2000
58
1
Multilingual E5 Large Instruct Q5 K M GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
JHJHJHJHJ
18
1
Multilingual E5 Large Instruct Q3 K S GGUF
MIT
多言語E5大型命令モデル、複数の言語とタスクをサポート、分類、検索、クラスタリングなど。
大規模言語モデル 複数言語対応
M
yoeven
14
1
Multilingual E5 Large Instruct Q5 0 GGUF
MIT
多言語E5大型命令モデルで、複数の言語のテキスト埋め込みと分類タスクをサポートします。
大規模言語モデル 複数言語対応
M
yoeven
14
2
Meta Llama 3.3 70B Instruct AWQ INT4
Llama 3.3 70B Instruct AWQ INT4 は、Meta Llama 3.3 70B Instructモデルの4ビット量子化バージョンで、多言語対話ユースケースに適しており、テキスト生成タスクを最適化しています。
大規模言語モデル Transformers 複数言語対応
M
ibnzterrell
6,410
22
Llama 3.1 Nemotron 70B Instruct HF
NVIDIAがカスタマイズした大規模言語モデルで、大規模言語モデルがユーザーのクエリに対して生成する返答の有用性を向上させることを目的としています。
大規模言語モデル Transformers 英語
L
nvidia
29.98k
2,033
Sales Conversations Unsloth Llama 3.1 8B Instruct
Apache-2.0
Meta-Llama-3.1-8B-Instructを基にした4ビット量子化バージョンで、UnslothとTRLライブラリを使用して効率的にトレーニングされています
大規模言語モデル Transformers 英語
S
vakodiya
22
1
Qwen2 0.5B Reward
Apache-2.0
Qwen/Qwen2-0.5B-Instructをファインチューニングした報酬モデルで、生成コンテンツの品質評価と最適化に使用
大規模言語モデル Transformers
Q
trl-lib
916
1
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8BはLlama-3.1-8B-Instructを基に構築された改良モデルで、複数のベンチマークテストで優れた性能を発揮し、対話や関数呼び出しタスクに適しています。
大規模言語モデル 複数言語対応
L
akjindal53244
654
41
Llama 3.1 Storm 8B
Llama-3.1-Storm-8Bは、Llama-3.1-8B-Instructをベースに開発されたモデルで、80億パラメータモデルクラスの対話および関数呼び出し能力を向上させることを目的としています。
大規模言語モデル Transformers 複数言語対応
L
akjindal53244
22.93k
176
Multilingual E5 Large Instruct GGUF
MIT
多言語e5シリーズは多言語埋め込みモデルの最適な選択肢の一つで、複数の言語とタスクをサポートします。
テキスト埋め込み
M
Ralriki
13.17k
5
Llama3.1 8b Instruct Summarize Q4 K M
Apache-2.0
Meta-Llama-3.1-8B-Instructを基にした4ビット量子化バージョンで、UnslothとHuggingface TRLライブラリを使用して訓練され、速度が2倍向上しました。
大規模言語モデル 英語
L
raaec
107
0
Llama 3.1 8B Instruct Abliterated Via Adapter GGUF
これはLlama-3.1-8B-Instructモデルを基にLoRA技術で拒否行動を除去した改良版です
大規模言語モデル
L
grimjim
311
27
Meta Llama 3.1 8B Instruct AWQ INT4
Llama 3.1 8B InstructのINT4量子化バージョンで、AutoAWQツールを使用して量子化されており、多言語対話シナリオに適しています。
大規模言語モデル Transformers 複数言語対応
M
hugging-quants
348.23k
67
Badger Lambda Llama 3 8b
Badgerは再帰的最大ペアワイズ非交和正規化ノイズ除去フーリエ補間法によって生成されたLlama3 8B命令モデルで、複数の優れたモデルの特性を融合しています。
大規模言語モデル Transformers
B
maldv
24
11
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3の量子化バージョン、さまざまなハードウェア要件に対応するための複数の量子化オプションを提供
大規模言語モデル
M
gaianet
137
1
Merge Mayhem L3 V2.1
これはmergekitツールを使用してマージされた事前訓練済み言語モデルの集合で、Llama-3-8Bアーキテクチャと複数の派生モデルを統合したものです。
大規模言語モデル Transformers
M
saishf
19
1
Suzume Llama 3 8B Multilingual
その他
スズメ 8BはLlama 3をベースにした多言語ファインチューニング版で、約90,000の多言語対話で訓練され、多言語コミュニケーション能力を強化しながらLlama 3の知的水準を維持しています。
大規模言語モデル Transformers
S
lightblue
9,494
112
Noro Hermes 3x7B
Apache-2.0
Noro-Hermes-3x7Bは、LazyMergeKitツールを使用して構築された混合専門家モデル(MoE)で、3つの7BパラメータのMistralバリエーションモデルを融合し、インテリジェントアシスタント、クリエイティブなロールプレイ、一般的なタスク処理能力を備えています。
大規模言語モデル Transformers
N
ThomasComics
16
1
Codellama 7b GQL Hf
Apache-2.0
これはCodeLlama-7b-Instruct-hfをベースにファインチューニングしたGQL言語モデルで、TuGraph Analyticsグラフ計算システム向けに設計されています。
大規模言語モデル Transformers
C
tugraph
24
4
IF PromptMKR Phi
microsoft/phi-1_5モデルをベースにIFprompMKRデータセットを使用してqlora微調整を行ったバージョンで、主にテキスト生成タスクに使用されます。
大規模言語モデル Transformers
I
impactframes
23
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase