Q

Qwen3 8b 192k Context 6X Josiefied Uncensored MLX AWQ 4bit

Goraintによって開発
Qwen3-8Bの4ビットAWQ量子化バージョン、MLXライブラリ向けに最適化され、19.2万トークンの長文コンテキスト処理をサポート、エッジデバイス向けのデプロイメントに適しています。
ダウンロード数 204
リリース時間 : 5/15/2025

モデル概要

Qwen3-8Bベースの4ビット量子化モデル、MLXライブラリによりAppleチップで効率的な推論を実現、元モデルのコア能力を保持しつつリソース消費を低減。

モデル特徴

効率的な推論
4ビット量子化によりFP16比でメモリ使用量を約75%削減
長文コンテキストサポート
19.2万トークン処理能力(標準版の6倍)
Appleチップ最適化
MLXライブラリによるM1/M3チップの高速化
エッジデバイスデプロイメント
低リソース消費でローカルデバイスでの実行に適している

モデル能力

長文テキスト生成
対話型インタラクション
ドキュメント分析
コード生成

使用事例

研究
長文コンテキストNLP実験
超長文テキストシーケンスの言語モデリング研究をサポート
モデル圧縮研究
4ビット量子化技術の効果検証
開発
エッジデバイスチャットボット
Appleデバイスにローカル対話システムをデプロイ
M3 Ultra実測112.8トークン/秒
長文ドキュメント処理
書籍/論文などの長文テキスト分析と要約生成
企業アプリケーション
コード生成
長文コンテキストに基づく完全なコードスニペット生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase