Q

Qwen3 8B 4bit

mlx-communityによって開発
これはQwen/Qwen3-8Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Appleチップデバイスでの効率的な推論に適しています。
ダウンロード数 2,131
リリース時間 : 4/28/2025

モデル概要

Qwen3-8Bをベースにした4ビット量子化バージョンで、MLXフレームワーク向けに最適化されており、効率的なテキスト生成タスクをサポートします。

モデル特徴

4ビット量子化
モデルは4ビット量子化処理されており、メモリ使用量と計算リソース要件を大幅に削減します
MLXフレームワーク最適化
MLXフレームワーク向けに変換されており、Appleチップデバイスでの実行効率を最適化しています
効率的な推論
量子化されたモデルは、良好な生成品質を維持しながら推論速度を向上させます

モデル能力

テキスト生成
対話システム
コンテンツ作成

使用事例

対話システム
インテリジェントチャットアシスタント
ローカルデバイスベースの対話AIアプリケーションを構築
コンテンツ生成
クリエイティブライティング
ストーリー創作、詩の生成などのクリエイティブライティングタスクを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase