# ローカル推論

INTELLECT 2 GGUF
INTELLECT-2-GGUF は PrimeIntellect/INTELLECT-2 の GGUF フォーマット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
I
MaziyarPanahi
88
1
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ は Qwen/Qwen3-8B を MLX フォーマットに変換した 4 ビット量子化バージョンで、Apple デバイス上で効率的に動作します。
大規模言語モデル
Q
mlx-community
306
1
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit は Qwen/Qwen3-30B-A3B を変換した 8 ビット量子化バージョンで、MLX フレームワーク向けに最適化されており、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
4,199
19
Gemma 3 27b It GGUF
Gemma 3 27B 命令調整モデルのGGUF量子化バージョン、テキスト生成タスクに適しています。
大規模言語モデル
G
MaziyarPanahi
475.91k
4
Gemma 3 12b It GGUF
Gemma 3 12B の GGUF 量子化バージョン、テキスト生成タスクに適しています。
大規模言語モデル
G
MaziyarPanahi
641.41k
4
Gemma 3 4b It GGUF
Gemma 3BモデルのGGUF量子化バージョン、ローカルテキスト生成タスクに適しています
大規模言語モデル
G
MaziyarPanahi
358.91k
6
Pllum 8x7B Chat GGUF
Apache-2.0
PLLuM-8x7B-chatのGGUF量化バージョンで、ローカル推論に最適化されており、さまざまなハードウェア要件に対応するための複数の量化レベルをサポートしています。
大規模言語モデル Transformers
P
piotrmaciejbednarski
126
2
Llama 3.2 3B Instruct Abliterated GGUF
Llama-3.2-3B-Instruct-abliteratedのGGUF形式量子化バージョンで、複数のビット量子化オプションをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
L
MaziyarPanahi
181
2
Llama 3.2 3B Instruct GGUF
Llama-3.2-3B-Instruct モデルの GGUF 形式ファイルで、ユーザーがテキスト生成タスクを行うのに便利です。
大規模言語モデル
L
MaziyarPanahi
203.56k
13
Phi 3.5 Mini Instruct GGUF
Phi-3.5-mini-instructのGGUF形式モデルファイルで、テキスト生成タスクに適しています。
大規模言語モデル
P
MaziyarPanahi
335.88k
13
Mistral Nemo Instruct 2407 GGUF
Mistral-Nemo-Instruct-2407-GGUF は mistralai/Mistral-Nemo-Instruct-2407 の GGUF 形式量子化バージョンで、複数の量子化ビット数(2-bit から 8-bit)をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
441.17k
44
Deepseek V2 Lite IMat GGUF
DeepSeek-V2-Lite の GGUF 量子化バージョンで、Llama.cpp imatrix 量子化処理により、ストレージと計算リソースの要件を削減し、デプロイを容易にします。
大規模言語モデル
D
legraphista
491
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase