Q

Qwen3 8B 4bit AWQ

由mlx-community開發
Qwen3-8B-4bit-AWQ 是基於 Qwen/Qwen3-8B 轉換的 4bit AWQ 量化版本,適用於 MLX 框架的文本生成任務。
下載量 1,682
發布時間 : 4/29/2025

模型概述

該模型是 Qwen3-8B 的 4bit AWQ 量化版本,專為 MLX 框架優化,適用於高效的文本生成任務。

模型特點

4bit AWQ 量化
通過 AWQ 量化技術將模型壓縮至 4bit,顯著減少內存佔用和計算資源需求。
MLX 框架優化
專為 MLX 框架優化,提供高效的推理性能。
高效文本生成
適用於各種文本生成任務,支持多輪對話和複雜提示。

模型能力

文本生成
多輪對話
複雜提示處理

使用案例

對話系統
智能客服
用於構建高效的智能客服系統,處理用戶查詢。
提供快速且準確的響應。
內容生成
文章摘要
生成文章或文檔的簡潔摘要。
生成連貫且信息豐富的摘要。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase