Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instructは38億パラメータの軽量で最先端のオープンソースモデルで、Phi-3データセットを使用して訓練され、高品質と推論集中特性に重点を置いています。
大規模言語モデル
P
brittlewis12
170
1
Devstral Small 2505 3bit
Apache-2.0
これはmistralai/Devstral-Small-2505モデルを変換した3ビット量子化バージョンで、MLXフレームワークに適しており、多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
121
1
Magma 8B GGUF
MIT
Magma-8BはGGUF形式の画像テキストからテキストへの変換モデルで、マルチモーダルタスク処理に適しています。
画像生成テキスト
M
Mungert
545
1
Qwen3 1.7B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型および混合エキスパート(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論、指示追従、エージェント能力、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
357
1
Qwen3 0.6B GGUF
Apache-2.0
Qwen3は通義千問シリーズの大規模言語モデルの最新バージョンで、一連の高密度型および混合専門家(MoE)モデルを提供しています。大規模なトレーニングに基づき、Qwen3は推論能力、命令追従、エージェント機能、多言語サポートにおいて画期的な進歩を実現しました。
大規模言語モデル 英語
Q
prithivMLmods
290
1
Phi 4 Mini Reasoning MLX 4bit
MIT
これは、マイクロソフトのPhi-4-mini-reasoningモデルを変換したMLX形式の4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
P
lmstudio-community
72.19k
2
Phi 4 Mini Reasoning
MIT
Phi-4-mini-reasoning は軽量なオープンソースモデルで、数学推論タスクに特化しており、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers

P
unsloth
591
2
GLM 4 9B 0414 GGUF
MIT
GLM-4-9B-0414はGLMファミリーの軽量メンバーで、90億のパラメータを持ち、数学的推論と汎用タスクで優れたパフォーマンスを発揮し、リソースが制限されたシナリオに効率的なソリューションを提供します。
大規模言語モデル 複数言語対応
G
unsloth
4,291
9
Qwen3 8B Q4 K M GGUF
Apache-2.0
これはQwen3-8BモデルのGGUFフォーマット版で、llama.cppフレームワークに適しており、テキスト生成タスクをサポートします。
大規模言語モデル
Transformers

Q
ufoym
342
3
Gemma 2 9b It Abliterated GGUF
Gemma 2.9Bの量子化バージョンで、llama.cppを使用して最適化されており、LM Studioでの実行に適しています。
大規模言語モデル 英語
G
bartowski
3,941
37
Phi 4 Mini Instruct.gguf
MIT
Phi-4-mini-instructは、高品質で推論に富んだデータに焦点を当てた軽量オープンソースモデルで、128Kトークンのコンテキスト長をサポートします。
大規模言語モデル その他
P
Mungert
13.08k
25
3b Zh Ft Research Release Q8 0 GGUF
Apache-2.0
このモデルはcanopylabs/3b-zh-ft-research_releaseから変換されたGGUF形式のモデルで、中国語テキスト生成タスクに適しています。
大規模言語モデル 中国語
3
cludyw
20
0
Google Gemma 3 1b It Qat GGUF
Google Gemma 3B QAT重みに基づく多様な量子化バージョン、ローカル推論展開に適応
大規模言語モデル
G
bartowski
1,437
2
Google Gemma 3 12b It Qat GGUF
Google QAT(量子化対応トレーニング)による重み量子化を施したGemma-3-12bモデルで、様々なハードウェアニーズに対応する複数量子化バージョンを提供します。
大規模言語モデル
G
bartowski
10.78k
16
3b Ko Ft Research Release Q4 K M GGUF
Apache-2.0
これは韓国語に最適化された3Bパラメータ規模の言語モデルで、llama.cppとの互換性のためにGGUF形式に変換されています。
大規模言語モデル 韓国語
3
freddyaboulton
165
0
GLM 4 9B 0414
MIT
GLM-4-9B-0414はGLMファミリーの軽量メンバーで、90億のパラメータ規模を持ち、数学的推論と一般的なタスクで卓越した能力を発揮し、同規模のオープンソースモデルの中でトップクラスの総合性能を示しています。
大規模言語モデル
Transformers 複数言語対応

G
THUDM
6,856
55
Orpheus 3b 0.1 Ft Q8 0 GGUF
Apache-2.0
このモデルはcanopylabs/orpheus-3b-0.1-ftから変換されたGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
dodgeinmedia
22
0
Orpheus 3b 0.1 Ft Q2 K.gguf
Apache-2.0
このモデルはcanopylabs/orpheus-3b-0.1-ftを変換したGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
athenasaurav
25
0
Orpheus 3b 0.1 Ft Q4 K M GGUF
Apache-2.0
このモデルはcanopylabs/orpheus-3b-0.1-ftから変換されたGGUF形式モデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
athenasaurav
162
0
Deepseek V3 5layer
DeepSeek-V3の5層簡易開発バージョン、軽量タスクと迅速な実験に適しています。
大規模言語モデル
Transformers

D
chwan
30.01k
1
LBM Depth
潜在ブリッジマッチング(LBM)技術に基づく画像深度推定モデル。潜在空間ブリッジにより高速な画像変換を実現
3Dビジョン
Safetensors
L
jasperai
44
3
Zhaav Gemma3 4B
Gemma 3アーキテクチャを基に微調整されたペルシャ語専用モデルで、QLoRA 4ビット量子化技術を使用し、一般的なハードウェアでの実行に適しています。
大規模言語モデル その他
Z
alifzl
40
1
Arrowmint Gemma3 4B YUKI V0.1
AIバーチャルYouTuber(AI VTuber)向けに会話最適化された日本語言語モデル、Googleのgemma-3-4b-itを基に開発
大規模言語モデル 複数言語対応
A
DataPilot
73
6
Orpheus 3b 0.1 Ft Q4 K M GGUF
Apache-2.0
Orpheus-3B-0.1-FT の GGUF 量子化バージョン、効率的な推論に適しています
大規模言語モデル 英語
O
freddyaboulton
30
1
Gemma 3 4b It GGUF
このモデルはllama.cppを使用してgoogle/gemma-3-4b-itからGGUF形式に変換されたもので、ローカル展開と推論に適しています。
大規模言語モデル
G
ysn-rfd
62
1
Bge Reranker V2 M3 Q5 K M GGUF
Apache-2.0
このモデルはggml.aiのGGUF-my-repoスペースで、llama.cppを使用してBAAI/bge-reranker-v2-m3から変換されたGGUF形式のモデルで、主にテキスト分類タスクに使用されます。
テキスト埋め込み その他
B
pyarn
31
1
Orpheus 3b 0.1 Ft Q2 K GGUF
Apache-2.0
これはcanopylabs/orpheus-3b-0.1-ftモデルから変換されたGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル 英語
O
Zetaphor
67
1
Mistral Small 3.1 24b Instruct 2503 Hf GGUF
これはmrfakename/mistral-small-3.1-24b-instruct-2503-hfモデルに基づくGGUFフォーマットの量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
137.78k
2
Gemma 3 4b Pt Q4 0 GGUF
これはGoogle Gemma 3.4Bパラメータモデルを変換したGGUF形式のモデルで、テキスト生成タスクに適しています。
大規模言語モデル
G
ngxson
74
1
Phi 4 Mini Instruct Abliterated
MIT
Phi-4-mini-instructは合成データと精選された公開ウェブサイトに基づいて構築された軽量オープンソースモデルで、高品質で強力な推論能力を持つデータに焦点を当てています。128Kトークンのコンテキスト長をサポートし、教師あり微調整と直接選好最適化により、正確な命令追従と安全性を確保しています。
大規模言語モデル
Transformers 複数言語対応

P
lunahr
250
8
Phi 4 Multimodal Instruct
MIT
Phi-4-multimodal-instructは、軽量でオープンソースのマルチモーダル基盤モデルで、Phi-3.5と4.0モデルの言語、視覚、音声研究データを統合しています。テキスト、画像、音声入力をサポートし、テキスト出力を生成し、128Kトークンのコンテキスト長を備えています。
テキスト生成オーディオ
Transformers 複数言語対応

P
microsoft
584.02k
1,329
Phi 4 Mini Instruct
MIT
Phi-4-mini-instructは軽量なオープンソースモデルで、合成データとフィルタリングされた公開ウェブサイトデータに基づいて構築され、高品質で推論能力に富んだデータに焦点を当てています。128Kトークンのコンテキスト長と多言語処理をサポートしています。
大規模言語モデル
Transformers 複数言語対応

P
microsoft
346.30k
455
Mistral Small 24B Instruct 2501 GGUF
Mistral-Small-24B-Instruct-2501のGGUF量子化バージョンで、ローカル展開とテキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
474.73k
2
Selene 1 Mini Llama 3.1 8B Q6 K GGUF
AtlaAI/Selene-1-Mini-Llama-3.1-8Bを変換したGGUF形式モデルで、テキスト生成タスクに適しており、複数のヨーロッパ言語をサポートしています。
大規模言語モデル 複数言語対応
S
NikolayKozloff
127
3
Rank Zephyr 7b V1 Full GGUF
MIT
これはcastorini/rank_zephyr_7b_v1_fullモデルのGGUF量子化バージョンで、テキストランキングタスクに適しています。
大規模言語モデル 英語
R
tensorblock
66
0
USER Bge M3 Q8 0 GGUF
Apache-2.0
このモデルはdeepvk/USER-bge-m3から変換されたGGUF形式モデルで、主に文の類似性と特徴抽出タスクに使用されます。
テキスト埋め込み その他
U
alela32
39
1
Flan T5 Base Q4 K M GGUF
Apache-2.0
このモデルはGoogleのflan-t5-baseモデルを変換したGGUF形式バージョンで、複数の言語とタスクをサポートし、テキスト生成や推論タスクに適しています。
大規模言語モデル 複数言語対応
F
marroyo777
23
1
Llama 3.2 3B Instruct Abliterated GGUF
MIT
最適化された量子化モデルで、出力と埋め込みテンソルはf16形式を使用し、残りのテンソルはq5_kまたはq6_k形式を使用します。これにより、モデルのサイズが小さくなり、純粋なf16と同等の性能を維持します。
大規模言語モデル 英語
L
ZeroWw
20
2
Gemma 2 Baku 2b It
Gemma 2 Baku 2Bに基づく指令微調整モデルで、指令遵守能力を最適化し、自然言語処理タスクに適しています。
大規模言語モデル
Transformers 日本語

G
rinna
2,555
27
Llama 3.2 1B Instruct Q8 0 GGUF
これはMetaがリリースしたLlama 3.2シリーズの10億パラメータ命令ファインチューニングモデルで、GGUF形式に変換されllama.cppでの使用が容易
大規模言語モデル 複数言語対応
L
hugging-quants
64.04k
31
- 1
- 2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98