# 高效量化推理

Gryphe Codex 24B Small 3.2 GGUF
Apache-2.0
这是Gryphe的Codex-24B-Small-3.2模型的量化版本,通过量化技术优化了在不同硬件条件下的运行效率。
大型语言模型 英语
G
bartowski
626
3
Blitzar Coder 4B F.1 GGUF
Apache-2.0
Blitzar-Coder-4B-F.1是一个高效的多语言编码模型,基于Qwen3-4B微调,支持10多种编程语言,具备出色的代码生成、调试和推理能力。
大型语言模型 Transformers
B
prithivMLmods
267
1
Qwen3 4B GGUF
Apache-2.0
Qwen3是通义千问系列最新一代大语言模型,提供完整的稠密模型与混合专家(MoE)模型组合。基于大规模训练,Qwen3在推理能力、指令遵循、智能体功能及多语言支持方面实现突破性进展。
大型语言模型 英语
Q
prithivMLmods
829
1
Qwen3 8B NEO Imatrix Max GGUF
Apache-2.0
基于Qwen3-8B模型的NEO Imatrix量化版本,支持32K长上下文和增强推理能力
大型语言模型
Q
DavidAU
178
1
Llava 1.5 13b Hf I1 GGUF
该项目提供了llava-1.5-13b-hf模型的加权/矩阵量化版本,包含多种量化类型选择,适用于不同场景下的使用需求。
文本生成图像 Transformers 英语
L
mradermacher
332
1
Mistral Small 3.1 24B Instruct 2503 Q4 K M GGUF
Apache-2.0
这是一个基于mistralai/Mistral-Small-3.1-24B-Instruct-2503转换的GGUF格式模型,支持多语言文本生成任务。
大型语言模型 支持多种语言
M
PatataAliena
124
1
LGAI EXAONE EXAONE Deep 2.4B GGUF
其他
这是LGAI-EXAONE发布的EXAONE-Deep-2.4B模型的量化版本,使用llama.cpp进行量化,支持英语和韩语文本生成任务。
大型语言模型 支持多种语言
L
bartowski
304
1
Zed Industries Zeta GGUF
Apache-2.0
这是对zed-industries的zeta模型进行的Llamacpp imatrix量化版本,解决了在不同硬件条件下高效运行模型的问题,提供了多种量化类型供用户选择。
大型语言模型
Z
bartowski
561
12
Virtuoso Lite GGUF
其他
Virtuoso-Lite的量化版本,使用llama.cpp进行量化处理,提升在不同硬件上的运行效率。
大型语言模型
V
bartowski
373
4
Qwen2 VL 7B Instruct GGUF
Apache-2.0
基于Qwen2-VL-7B-Instruct的多模态模型量化版本,支持图像文本到文本任务,适用于多种量化级别。
图像生成文本 英语
Q
XelotX
201
1
Eurollm 9B Instruct GGUF
Apache-2.0
EuroLLM-9B-Instruct是一个多语言指令跟随大语言模型,支持40+种语言,特别优化了欧洲语言处理能力。
大型语言模型 支持多种语言
E
bartowski
901
13
T5 3b Q4 K M GGUF
Apache-2.0
该模型是通过ggml.ai的GGUF-my-repo空间,使用llama.cpp从google-t5/t5-3b转换至GGUF格式的量化版本。
机器翻译 支持多种语言
T
VVS2024
15
0
Nxcode CQ 7B Orpo IMat GGUF
其他
这是NTQAI/Nxcode-CQ-7B-orpo模型的Llama.cpp imatrix量化版本,提供了多种量化类型的文件,适用于不同场景的需求。
大型语言模型
N
legraphista
411
1
Wizardlm 2 7B Abliterated GGUF
Apache-2.0
这是使用llama.cpp对WizardLM-2-7B进行量化后的版本,基于正交化bfloat16 safetensor权重处理,支持多轮对话。
大型语言模型
W
QuantFactory
139
2
Deepseek V2 Lite Chat IMat GGUF
DeepSeek-V2-Lite-Chat 的 GGUF 量化版本,支持多种量化类型,适用于本地部署和推理。
大型语言模型
D
legraphista
1,413
12
Mixtral 8x7B Instruct V0.1 Offloading Demo
MIT
Mixtral 是一个支持多语言的文本生成模型,采用混合专家(MoE)架构,支持英语、法语、意大利语、德语和西班牙语。
大型语言模型 Transformers 支持多种语言
M
lavawolfiee
391
28
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase