Q

Qwen3 8b 192k Context 6X Josiefied Uncensored MLX AWQ 4bit

Developed by Goraint
Qwen3-8B的4位AWQ量化版本,專為MLX庫優化,支持19.2萬詞元長上下文處理,適用於邊緣設備部署。
Downloads 204
Release Time : 5/15/2025

Model Overview

基於Qwen3-8B的4位量化模型,通過MLX庫實現蘋果芯片高效推理,保留原模型核心能力的同時降低資源消耗。

Model Features

高效推理
4位量化使內存佔用較FP16降低約75%
長上下文支持
19.2萬詞元處理能力(標準版6倍)
蘋果芯片優化
通過MLX庫實現M1/M3芯片加速
邊緣設備部署
低資源消耗適合本地設備運行

Model Capabilities

長文本生成
對話式交互
文檔分析
代碼生成

Use Cases

研究
長上下文NLP實驗
支持超長文本序列的語言建模研究
模型壓縮研究
4位量化技術的效果驗證
開發
邊緣設備聊天機器人
在蘋果設備部署本地化對話系統
M3 Ultra實測112.8詞元/秒
長文檔處理
書籍/論文等長文本分析與摘要生成
企業應用
代碼生成
基於長上下文生成完整代碼片段
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase