# マルチビット量子化

INTELLECT 2 GGUF
INTELLECT-2-GGUF は PrimeIntellect/INTELLECT-2 の GGUF フォーマット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
I
MaziyarPanahi
88
1
Dia GGUF
MIT
Dia 1.6Bはテキスト音声変換タスクに適したモデルで、複数の量子化バージョンをサポートし、TTS.cppフレームワークと互換性があります。
音声合成
D
mmwillet2
156
4
Qwen3 30B A3B GGUF
Qwen3-30B-A3BのGGUF量子化バージョンで、複数のビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
MaziyarPanahi
158.92k
3
Qwen3 0.6B GGUF
Qwen3-0.6BのGGUF量子化バージョン、テキスト生成タスクに適しています。
大規模言語モデル
Q
MaziyarPanahi
233.95k
2
Mistral Small 3.1 24b Instruct 2503 Hf GGUF
これはmrfakename/mistral-small-3.1-24b-instruct-2503-hfモデルに基づくGGUFフォーマットの量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
137.78k
2
Gemma 3 27b It GGUF
Gemma 3 27B 命令調整モデルのGGUF量子化バージョン、テキスト生成タスクに適しています。
大規模言語モデル
G
MaziyarPanahi
475.91k
4
Gemma 3 4b It GGUF
Gemma 3BモデルのGGUF量子化バージョン、ローカルテキスト生成タスクに適しています
大規模言語モデル
G
MaziyarPanahi
358.91k
6
Mistral Small 24B Instruct 2501 GGUF
Mistral-Small-24B-Instruct-2501のGGUF量子化バージョンで、ローカル展開とテキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
474.73k
2
Llama 3.2 3B Instruct Abliterated GGUF
Llama-3.2-3B-Instruct-abliteratedのGGUF形式量子化バージョンで、複数のビット量子化オプションをサポートし、テキスト生成タスクに適しています。
大規模言語モデル
L
MaziyarPanahi
181
2
Yi Coder 1.5B Chat GGUF
Yi-Coder-1.5B-Chat-GGUFは01-ai/Yi-Coder-1.5B-ChatのGGUFフォーマットモデルファイルで、テキスト生成タスクに適しています。
大規模言語モデル
Y
MaziyarPanahi
254.78k
10
Phi 3.5 Mini Instruct GGUF
Phi-3.5-mini-instructのGGUF形式モデルファイルで、テキスト生成タスクに適しています。
大規模言語モデル
P
MaziyarPanahi
335.88k
13
Mistral Nemo Instruct 2407 GGUF
Mistral-Nemo-Instruct-2407-GGUF は mistralai/Mistral-Nemo-Instruct-2407 の GGUF 形式量子化バージョンで、複数の量子化ビット数(2-bit から 8-bit)をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
M
MaziyarPanahi
441.17k
44
Mistral 7B Instruct V0.3 GGUF
Apache-2.0
Mistral-7B-Instruct-v0.3のGGUF量子化バージョン、ローカル推論用テキスト生成モデル
大規模言語モデル
M
MaziyarPanahi
253.99k
93
Llama 3 8B Instruct 64k GGUF
Llama-3-8B-Instruct-64kのGGUF量子化バージョンで、複数のビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
L
MaziyarPanahi
201.57k
13
Llama 3 8B Instruct 32k V0.1 GGUF
Llama-3-8B-Instruct-32k-v0.1のGGUF量子化バージョンで、複数のビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
L
MaziyarPanahi
226.09k
57
Llama 3 Smaug 8B GGUF
abacusai/Llama-3-Smaug-8Bを基にしたGGUFフォーマットの量子化モデルで、2-8ビットの量子化レベルをサポートし、テキスト生成タスクに適しています
大規模言語モデル
L
MaziyarPanahi
8,904
5
Zephyr Orpo 141b A35b V0.1 GGUF
Apache-2.0
Mixtral-8x22B-v0.1をファインチューニングした1410億パラメータの混合エキスパートモデル(MoE)、活性化パラメータ350億、主に英語テキスト生成タスク用
大規模言語モデル 英語
Z
MaziyarPanahi
10.04k
29
Saul Instruct V1 GGUF
MIT
Saul-Instruct-v1-GGUF は Equall/Saul-Instruct-v1 モデルの GGUF フォーマット版で、テキスト生成タスクに適しており、複数の量子化レベルをサポートしています。
大規模言語モデル 英語
S
MaziyarPanahi
456
8
Phi 2 Super GGUF
MIT
phi-2-super-GGUF は abacaj/phi-2-super モデルの GGUF 量子化バージョンで、ローカル実行とテキスト生成タスクに適しています。
大規模言語モデル Transformers
P
MaziyarPanahi
158
5
Gemma 2b It GGUF
その他
Gemma 2BモデルのGGUF量子化バージョン、ローカル展開と推論に適しています
大規模言語モデル
G
MaziyarPanahi
517
10
Rank Zephyr 7b V1 Full GGUF
MIT
Mistral-7Bベースのテキストランキングモデルで、複数の量子化バージョンを提供し、効率的な推論に適しています。
大規模言語モデル 英語
R
MaziyarPanahi
708
5
Sauerkrautlm 7b HerO Mistral 7B Instruct V0.1 GGUF
Apache-2.0
これはMistral-7B-Instruct-v0.1を微調整したドイツ語/英語のバイリンガルモデルで、GGUF形式で量子化されており、2-8ビットの複数の量子化レベルをサポートしています。
大規模言語モデル 複数言語対応
S
MaziyarPanahi
90
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase