Q

Qwen3 8B 4bit

由mlx-community開發
這是Qwen/Qwen3-8B模型的4位量化版本,已轉換為MLX框架格式,適用於蘋果芯片設備的高效推理。
下載量 2,131
發布時間 : 4/28/2025

模型概述

基於Qwen3-8B的4位量化版本,專為MLX框架優化,支持高效的文本生成任務。

模型特點

4位量化
模型經過4位量化處理,顯著減少內存佔用和計算資源需求
MLX框架優化
專為MLX框架轉換,優化在蘋果芯片設備上的運行效率
高效推理
量化後的模型在保持較好生成質量的同時提高推理速度

模型能力

文本生成
對話系統
內容創作

使用案例

對話系統
智能聊天助手
構建基於本地設備的對話AI應用
內容生成
創意寫作
輔助進行故事創作、詩歌生成等創意寫作任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase