# 6ビット量子化

Deepseek R1 0528 Qwen3 8B 6bit
MIT
DeepSeek-R1-0528-Qwen3-8Bモデルを基に変換された6ビット量子化バージョンで、MLXフレームワークのテキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
582
1
Devstral Small 2505 MLX 6bit
Apache-2.0
mistralaiによって開発された軽量言語モデルで、MLXフレームワークによる6ビット量子化最適化が施され、Apple Silicon向けに設計されています。
大規模言語モデル 複数言語対応
D
lmstudio-community
751
4
Josiefied Qwen3 4B Abliterated V1 6bit
これはQwen3-4BモデルをMLXフォーマットに変換した6ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
15
1
Dia 1.6B 6bit
Apache-2.0
Dia-1.6B-6bit は Dia-1.6B を基にした 6 ビット量子化バージョンで、MLX フレームワーク向けに最適化されたテキスト読み上げモデルです。
音声合成 英語
D
mlx-community
76
4
Gemma 3 27b It Qat 6bit
その他
これはGoogle Gemma 3 27Bモデルに基づく量子化バージョンで、6ビット量子化をサポートし、画像テキストからテキストへのタスクに適しています。
画像生成テキスト Transformers その他
G
mlx-community
110
0
Deepcogito Cogito V1 Preview Llama 70B 6bit
これはLlamaアーキテクチャに基づく70Bパラメータの大規模言語モデルで、6ビット量子化処理が施され、テキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
8,168
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase