Q

Qwen3 8b 192k Context 6X Josiefied Uncensored MLX AWQ 4bit

由Goraint開發
Qwen3-8B的4位AWQ量化版本,專為MLX庫優化,支持19.2萬詞元長上下文處理,適用於邊緣設備部署。
下載量 204
發布時間 : 5/15/2025

模型概述

基於Qwen3-8B的4位量化模型,通過MLX庫實現蘋果芯片高效推理,保留原模型核心能力的同時降低資源消耗。

模型特點

高效推理
4位量化使內存佔用較FP16降低約75%
長上下文支持
19.2萬詞元處理能力(標準版6倍)
蘋果芯片優化
通過MLX庫實現M1/M3芯片加速
邊緣設備部署
低資源消耗適合本地設備運行

模型能力

長文本生成
對話式交互
文檔分析
代碼生成

使用案例

研究
長上下文NLP實驗
支持超長文本序列的語言建模研究
模型壓縮研究
4位量化技術的效果驗證
開發
邊緣設備聊天機器人
在蘋果設備部署本地化對話系統
M3 Ultra實測112.8詞元/秒
長文檔處理
書籍/論文等長文本分析與摘要生成
企業應用
代碼生成
基於長上下文生成完整代碼片段
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase