# 本地推理

INTELLECT 2 GGUF
INTELLECT-2-GGUF 是 PrimeIntellect/INTELLECT-2 的 GGUF 格式量化版本,適用於文本生成任務。
大型語言模型
I
MaziyarPanahi
88
1
Qwen3 8B 4bit DWQ
Apache-2.0
Qwen3-8B-4bit-DWQ 是基於 Qwen/Qwen3-8B 轉換至 MLX 格式的 4 位量化版本,適用於在 Apple 設備上高效運行。
大型語言模型
Q
mlx-community
306
1
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基於 Qwen/Qwen3-30B-A3B 轉換的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
4,199
19
Gemma 3 12b It GGUF
Gemma 3 12B 的 GGUF 量化版本,適用於文本生成任務。
大型語言模型
G
MaziyarPanahi
641.41k
4
Pllum 8x7B Chat GGUF
Apache-2.0
PLLuM-8x7B-chat的GGUF量化版本,針對本地推理優化,支持多種量化級別以適應不同硬件需求。
大型語言模型 Transformers
P
piotrmaciejbednarski
126
2
Llama 3.2 3B Instruct Abliterated GGUF
Llama-3.2-3B-Instruct-abliterated的GGUF格式量化版本,支持多種比特量化選項,適用於文本生成任務。
大型語言模型
L
MaziyarPanahi
181
2
Llama 3.2 3B Instruct GGUF
Llama-3.2-3B-Instruct 模型的 GGUF 格式文件,方便用戶進行文本生成任務。
大型語言模型
L
MaziyarPanahi
203.56k
13
Phi 3.5 Mini Instruct GGUF
Phi-3.5-mini-instruct的GGUF格式模型文件,適用於文本生成任務。
大型語言模型
P
MaziyarPanahi
335.88k
13
Mistral Nemo Instruct 2407 GGUF
Mistral-Nemo-Instruct-2407-GGUF 是 mistralai/Mistral-Nemo-Instruct-2407 的 GGUF 格式量化版本,支持多種量化位數(2-bit 至 8-bit),適用於文本生成任務。
大型語言模型
M
MaziyarPanahi
441.17k
44
Deepseek V2 Lite IMat GGUF
DeepSeek-V2-Lite 的 GGUF 量化版本,通過 Llama.cpp imatrix 量化處理,減少存儲和計算資源需求,便於部署。
大型語言模型
D
legraphista
491
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase