Q

Qwen3 14B 4bit AWQ

由mlx-community開發
Qwen3-14B-4bit-AWQ是基於Qwen/Qwen3-14B轉換而來的MLX格式模型,使用AWQ量化技術將模型壓縮至4bit,適用於MLX框架的高效推理。
下載量 252
發布時間 : 5/6/2025

模型概述

該模型是Qwen3-14B的4bit量化版本,專為MLX框架優化,支持高效的文本生成任務。

模型特點

4bit量化
使用AWQ技術將模型壓縮至4bit,顯著減少內存佔用和計算資源需求。
MLX框架支持
專為MLX框架優化,可在支持MLX的設備上高效運行。
高效推理
量化後的模型在保持較高生成質量的同時,提升了推理速度。

模型能力

文本生成
多語言支持
對話系統

使用案例

對話系統
智能客服
用於構建智能客服系統,自動回答用戶問題。
提供流暢、準確的回答,提升用戶體驗。
內容生成
文章創作
用於自動生成文章、故事等內容。
生成連貫、有邏輯的文本內容。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase