# 4位量化推理

Deepseek R1 0528 AWQ
MIT
DeepSeek-R1-0528 671B模型的4位AWQ量化版本,適合在高端GPU節點上使用
大型語言模型 Transformers
D
adamo1139
161
2
GLM 4 32B 0414.w4a16 Gptq
MIT
這是一個使用GPTQ方法對GLM-4-32B-0414進行4位量化的模型,適用於消費級硬件。
大型語言模型 Safetensors
G
mratsim
785
2
Gemma 3 12b It Qat 4bit
其他
基於 google/gemma-3-12b-it-qat-q4_0-unquantized 轉換的 MLX 格式模型,支持圖文生成任務
文本生成圖像 Transformers 其他
G
mlx-community
984
5
Gemma 3 12b It Mlx 4Bit
Gemma 3 12B IT MLX 4Bit 是基於 unsloth/gemma-3-12b-it 轉換而來的 MLX 格式模型,適用於蘋果芯片設備。
大型語言模型 Transformers 英語
G
przemekmroczek
23
1
Cogito Maximus
Apache-2.0
科吉託·馬克西姆斯是基於Qwen2.5-72B指令微調模型優化的高級文本生成模型,採用Unsloth加速訓練和TRL微調框架,適用於多種文本生成場景。
大型語言模型 Transformers
C
Daemontatox
694
2
Mistral 7B Summarizer SFT GGUF
MIT
基於Mistral 7B架構的文本摘要模型,採用LoRA技術優化微調效率和性能。
文本生成 英語
M
SURESHBEEKHANI
65
0
Qwq 32B Preview AWQ
Apache-2.0
QwQ-32B-Preview的AWQ 4位量化版本,顯著降低內存使用和計算需求,適合資源有限的硬件部署。
大型語言模型 Transformers 英語
Q
KirillR
2,247
26
Aria Sequential Mlp Bnb Nf4
Apache-2.0
基於Aria-sequential_mlp的BitsAndBytes NF4量化版本,適用於圖像文本到文本任務,顯存需求約15.5 GB。
圖像生成文本 Transformers
A
leon-se
76
11
Meta Llama 3.1 8B Text To SQL
Apache-2.0
基於Meta-Llama-3.1-8B的4位量化微調模型,專注於文本生成任務,特別是文本到SQL轉換
大型語言模型 Transformers 支持多種語言
M
ruslanmv
1,182
4
Mistral 7B Instruct V0.3 AWQ
Apache-2.0
Mistral-7B-Instruct-v0.3是基於Mistral-7B-v0.3進行指令微調的大語言模型,採用4位AWQ量化技術優化推理效率
大型語言模型 Transformers
M
solidrust
48.24k
3
Phi 3 Mini 4k Instruct Q4
Phi-3 4k Instruct 是一個輕量級但功能強大的語言模型,經過4位量化處理以降低資源需求。
大型語言模型 Transformers
P
bongodongo
39
1
Llama 2 7b Chat Hf Math Ft V1
Apache-2.0
基於Llama 2 7B模型進行數學領域微調的聊天模型,支持文本生成任務
大型語言模型 Transformers 英語
L
RohitSahoo
27
1
Deepseek Llm 7B Base AWQ
其他
Deepseek LLM 7B Base 是一個7B參數規模的基礎大語言模型,採用AWQ量化技術優化推理效率。
大型語言模型 Transformers
D
TheBloke
1,863
2
Acegpt 13B Chat AWQ
AceGPT 13B聊天版的AWQ量化版本,支持英語和阿拉伯語,專為普通GPU用戶設計,提供高效的4位量化推理能力。
大型語言模型 Transformers 支持多種語言
A
MohamedRashad
37
3
Llama 2 7b Mt Czech To English
MIT
這是一個針對Meta Llama 2 7B模型進行微調的適配器,專門用於將捷克語文本翻譯成英語。
機器翻譯 支持多種語言
L
kaitchup
59
4
Mistral 7b Guanaco
Apache-2.0
基於Llama2架構的預訓練語言模型,適用於英語文本生成任務
大型語言模型 Transformers 英語
M
kingabzpro
67
3
Llama 2 7b MedQuAD
Apache-2.0
基於Llama-2-7b-chat模型在醫學問答數據集MedQuAD上微調的醫療問答模型
大型語言模型
L
EdwardYu
27
2
Falcon 7B Instruct GPTQ
Apache-2.0
Falcon-7B-Instruct的4位量化版本,使用AutoGPTQ工具進行量化,適用於資源受限環境下的高效推理。
大型語言模型 Transformers 英語
F
TheBloke
189
67
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase