Q

Qwq 32B GGUF

由Mungert開發
採用IQ-DynamicGate技術的超低位量化(1-2比特)大語言模型,支持多語言文本生成任務
下載量 5,770
發布時間 : 4/4/2025

模型概述

基於Qwen2.5-32B的量化版本,通過動態精度分配技術實現超低位量化(1-2比特),在保持內存效率的同時提升模型準確性。

模型特點

IQ-DynamicGate量化技術
採用分層策略的動態精度分配,前25%和後25%的層使用IQ4_XS,中間50%的層使用IQ2_XXS/IQ3_S,顯著降低誤差傳播
關鍵組件保護
嵌入層和輸出層使用Q5_K量化,相比標準1-2比特量化減少38%的誤差傳播
多格式支持
提供BF16、F16及多種量化格式(Q4_K、Q6_K、Q8_0等),適配不同硬件需求

模型能力

多語言文本生成
聊天對話
低資源環境推理

使用案例

資源受限部署
邊緣設備文本生成
在內存有限的邊緣設備上運行聊天機器人
IQ1_M量化版本困惑度降低43.9%
研究應用
超低位量化研究
探索1-2比特量化的極限性能
IQ2_S量化困惑度降低36.9%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase