# 4位量化推理

Deepseek R1 0528 AWQ
MIT
DeepSeek-R1-0528 671B模型的4位AWQ量化版本,适合在高端GPU节点上使用
大型语言模型 Transformers
D
adamo1139
161
2
GLM 4 32B 0414.w4a16 Gptq
MIT
这是一个使用GPTQ方法对GLM-4-32B-0414进行4位量化的模型,适用于消费级硬件。
大型语言模型 Safetensors
G
mratsim
785
2
Gemma 3 12b It Qat 4bit
其他
基于 google/gemma-3-12b-it-qat-q4_0-unquantized 转换的 MLX 格式模型,支持图文生成任务
文本生成图像 Transformers 其他
G
mlx-community
984
5
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bit 是基于 unsloth/gemma-3-12b-it 转换而来的 MLX 格式模型,适用于苹果芯片设备。
大型语言模型 Transformers 英语
G
przemekmroczek
23
1
Cogito Maximus
Apache-2.0
科吉托·马克西姆斯是基于Qwen2.5-72B指令微调模型优化的高级文本生成模型,采用Unsloth加速训练和TRL微调框架,适用于多种文本生成场景。
大型语言模型 Transformers
C
Daemontatox
694
2
Mistral 7B Summarizer SFT GGUF
MIT
基于Mistral 7B架构的文本摘要模型,采用LoRA技术优化微调效率和性能。
文本生成 英语
M
SURESHBEEKHANI
65
0
Qwq 32B Preview AWQ
Apache-2.0
QwQ-32B-Preview的AWQ 4位量化版本,显著降低内存使用和计算需求,适合资源有限的硬件部署。
大型语言模型 Transformers 英语
Q
KirillR
2,247
26
Aria Sequential Mlp Bnb Nf4
Apache-2.0
基于Aria-sequential_mlp的BitsAndBytes NF4量化版本,适用于图像文本到文本任务,显存需求约15.5 GB。
图像生成文本 Transformers
A
leon-se
76
11
Meta Llama 3.1 8B Text To SQL
Apache-2.0
基于Meta-Llama-3.1-8B的4位量化微调模型,专注于文本生成任务,特别是文本到SQL转换
大型语言模型 Transformers 支持多种语言
M
ruslanmv
1,182
4
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3是基于Mistral-7B-v0.3进行指令微调的大语言模型,采用4位AWQ量化技术优化推理效率
大型语言模型 Transformers
M
solidrust
48.24k
3
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instruct 是一个轻量级但功能强大的语言模型,经过4位量化处理以降低资源需求。
大型语言模型 Transformers
P
bongodongo
39
1
Llama 2 7b Chat Hf Math Ft V1
Apache-2.0
基于Llama 2 7B模型进行数学领域微调的聊天模型,支持文本生成任务
大型语言模型 Transformers 英语
L
RohitSahoo
27
1
Deepseek Llm 7B Base AWQ
其他
Deepseek LLM 7B Base 是一个7B参数规模的基础大语言模型,采用AWQ量化技术优化推理效率。
大型语言模型 Transformers
D
TheBloke
1,863
2
Acegpt 13B Chat AWQ
AceGPT 13B聊天版的AWQ量化版本,支持英语和阿拉伯语,专为普通GPU用户设计,提供高效的4位量化推理能力。
大型语言模型 Transformers 支持多种语言
A
MohamedRashad
37
3
Llama 2 7b Mt Czech To English
MIT
这是一个针对Meta Llama 2 7B模型进行微调的适配器,专门用于将捷克语文本翻译成英语。
机器翻译 支持多种语言
L
kaitchup
59
4
Mistral 7b Guanaco
Apache-2.0
基于Llama2架构的预训练语言模型,适用于英语文本生成任务
大型语言模型 Transformers 英语
M
kingabzpro
67
3
Llama 2 7b MedQuAD
Apache-2.0
基于Llama-2-7b-chat模型在医学问答数据集MedQuAD上微调的医疗问答模型
大型语言模型
L
EdwardYu
27
2
Falcon 7B Instruct GPTQ
Apache-2.0
Falcon-7B-Instruct的4位量化版本,使用AutoGPTQ工具进行量化,适用于资源受限环境下的高效推理。
大型语言模型 Transformers 英语
F
TheBloke
189
67
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase