# 高効率量子化

Baidu ERNIE 4.5 0.3B PT GGUF
Apache-2.0
百度ERNIE-4.5-0.3B-PTモデルに基づく量子化バージョンで、llama.cppツールを通じて最適化され、モデルサイズを削減し、実行効率を向上させます。
大規模言語モデル 複数言語対応
B
bartowski
314
3
BAAI RoboBrain2.0 7B GGUF
Apache-2.0
これはBAAIのRoboBrain2.0-7Bモデルの量子化バージョンで、llama.cppを通じて量子化処理を行い、さまざまなハードウェアのニーズに対応するための複数の量子化タイプを提供します。
大規模言語モデル
B
bartowski
448
3
Deepseek Ai DeepSeek R1 Distill Qwen 14B GGUF
DeepSeek-R1-Distill-Qwen-14Bは、14Bパラメータ規模の最適化された大規模言語モデルで、DeepSeek AIによってリリースされ、Qwenアーキテクチャに基づいて蒸留され、性能向上のために複数のGGUF量子化バージョンを提供します。
大規模言語モデル
D
featherless-ai-quants
237
1
Medra27b I1 GGUF
Apache-2.0
Medra27Bの量子化バージョンで、複数の量子化タイプを提供し、テキスト生成、医療人工知能などの複数の分野に適用されます。
大規模言語モデル Transformers 複数言語対応
M
mradermacher
337
0
Gemma 3 12b It GGUF
Gemma 3 12Bは大型言語モデルで、GGUF形式の量子化バージョンを提供し、ローカルデプロイと使用に適しています。
大規模言語モデル Transformers
G
tensorblock
336
1
Granite Embedding 107m Multilingual GGUF
Apache-2.0
IBM Graniteチームによって開発された多言語埋め込みモデルの量子化バージョンで、17種類の言語のテキスト埋め込みタスクをサポートし、検索や情報抽出などのシナリオに適しています。
テキスト埋め込み 複数言語対応
G
bartowski
15.19k
1
Nasiruddin15 Mistral Dolphin 2.8 Grok Instract 2 7B Slerp GGUF
これはMistralアーキテクチャに基づく7Bパラメータのモデルで、量子化最適化を行い、さまざまなGGUF量子化バージョンを提供して、異なるハードウェア要件に対応します。
大規模言語モデル
N
featherless-ai-quants
127
2
Molmo 7B O Bnb 4bit
Apache-2.0
Molmo-7B-Oの4bit量子化バージョンで、VRAM要件を大幅に削減し、リソースが限られた環境に適しています。
大規模言語モデル Transformers
M
cyan2k
2,467
11
Phi 3.5 Mini Instruct Uncensored GGUF
Apache-2.0
Phi-3.5-mini-instruct_Uncensoredは量子化された言語モデルで、さまざまなハードウェア条件での使用に適しています。
大規模言語モデル
P
bartowski
1,953
42
Openchat 3.6 8b 20240522 IMat GGUF
これはopenchat/openchat-3.6-8b-20240522モデルをLlama.cpp imatrix量子化処理したバージョンで、異なる量子化タイプのファイルを提供し、ユーザーが必要に応じてダウンロードして使用できるようにしています。
大規模言語モデル
O
legraphista
4,416
1
Deepseek V2 Lite IMat GGUF
DeepSeek-V2-Lite の GGUF 量子化バージョンで、Llama.cpp imatrix 量子化処理により、ストレージと計算リソースの要件を削減し、デプロイを容易にします。
大規模言語モデル
D
legraphista
491
1
Mixtral 8x7B V0.1 Turkish GGUF
Apache-2.0
特定のトルコ語データセットを基に微調整されたモデルで、トルコ語で正確に情報を回答でき、トルコ語関連のテキスト生成タスクに強力なサポートを提供します。
大規模言語モデル Transformers 複数言語対応
M
sayhan
180
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase