Q

Qwen3 8B 4bit AWQ

由 mlx-community 开发
Qwen3-8B-4bit-AWQ 是基于 Qwen/Qwen3-8B 转换的 4bit AWQ 量化版本,适用于 MLX 框架的文本生成任务。
下载量 1,682
发布时间 : 4/29/2025

模型简介

该模型是 Qwen3-8B 的 4bit AWQ 量化版本,专为 MLX 框架优化,适用于高效的文本生成任务。

模型特点

4bit AWQ 量化
通过 AWQ 量化技术将模型压缩至 4bit,显著减少内存占用和计算资源需求。
MLX 框架优化
专为 MLX 框架优化,提供高效的推理性能。
高效文本生成
适用于各种文本生成任务,支持多轮对话和复杂提示。

模型能力

文本生成
多轮对话
复杂提示处理

使用案例

对话系统
智能客服
用于构建高效的智能客服系统,处理用户查询。
提供快速且准确的响应。
内容生成
文章摘要
生成文章或文档的简洁摘要。
生成连贯且信息丰富的摘要。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase