Q

Qwq 32B FP8 Dynamic

由RedHatAI開發
QwQ-32B的FP8量化版本,通過動態量化技術減少50%存儲和內存需求,同時保持99.75%的原始模型精度
下載量 3,107
發布時間 : 3/5/2025

模型概述

基於Qwen/QwQ-32B的量化優化版本,採用FP8動態量化技術優化權重和激活值,適用於高效推理部署

模型特點

FP8動態量化
權重和激活值採用FP8量化,存儲和內存需求減少約50%
高精度保持
在多項基準測試中保持99.75%的原始模型精度
vLLM優化支持
專為vLLM推理引擎優化,支持高效部署

模型能力

文本生成
對話系統
代碼生成
數學推理

使用案例

智能對話
角色扮演對話
支持特定角色風格的對話生成
示例中展示了海盜風格的回答能力
數學推理
數學問題求解
解決複雜數學問題
在MATH-500測試中達到97.44%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase