# MLX最適化

Diffucoder 7B Cpgrpo 8bit
DiffuCoder-7B-cpGRPO-8bitはMLX形式に変換されたコード生成モデルで、apple/DiffuCoder-7B-cpGRPOをベースに変換され、開発者に高効率なコード生成ツールを提供するために設計されています。
大規模言語モデル その他
D
mlx-community
272
2
Diffucoder 7B Cpgrpo 6bit
DiffuCoder-7B-cpGRPO-6bitは、MLX形式に変換されたテキスト生成モデルで、コードとテキスト拡散タスクに特化しています。
大規模言語モデル その他
D
mlx-community
103
1
ERNIE 4.5 21B A3B PT 8bit
Apache-2.0
ERNIE-4.5-21B-A3B-PT-8bitは、百度のERNIE-4.5-21B-A3B-PTモデルの8ビット量子化バージョンで、MLX形式に変換されており、Appleチップ搭載のデバイスに適しています。
大規模言語モデル 複数言語対応
E
mlx-community
123
1
Diffucoder 7B Cpgrpo 4bit
DiffuCoder-7B-cpGRPO-4bitは、AppleのDiffuCoder-7B-cpGRPOモデルを基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。
大規模言語モデル その他
D
mlx-community
218
1
Hunyuan A13B Instruct 5bit
その他
騰訊混元A13B大規模モデルを変換した5ビット量子化バージョンで、AppleチップのMLXフレームワークに適しています。
大規模言語モデル
H
mlx-community
169
2
Hunyuan A13B Instruct 4bit
その他
騰訊混元A13B大規模言語モデルの4ビット量子化バージョンで、命令追従タスクに適しています。
大規模言語モデル
H
mlx-community
201
4
ERNIE 4.5 0.3B PT Bf16
Apache-2.0
ERNIE-4.5-0.3B-PT-bf16は百度が開発したERNIEシリーズのモデルの一つで、パラメータ規模は0.3Bで、bf16精度で学習されています。
大規模言語モデル 複数言語対応
E
mlx-community
214
1
Jan Nano 8bit
Apache-2.0
Jan-nano-8bitは、Menlo/Jan-nanoモデルを変換した8ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
188
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
これはQwen3-235B-A22B-8ビットモデルから変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化され、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
200
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 Bf16
これはMLX形式に変換された大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
2,168
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
これはDeepSeek-R1-0528-Qwen3-8Bモデルを変換したMLX形式の8ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
J
mlx-community
847
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
このモデルは、deepseek-ai/deepseek-r1-0528-Qwen3-8B を変換したMLX形式のバージョンで、Appleデバイスのローカル推論に適しています。
大規模言語モデル
D
mlx-community
2,298
1
Llama 3.3 70B Instruct 4bit DWQ
Llama 3.3 70B命令微調整モデルの4ビットDWQ量子化バージョン、MLXフレームワーク向けの効率的な推論に適しています
大規模言語モデル 複数言語対応
L
mlx-community
140
2
Devstral Small 2505 4bit DWQ
Apache-2.0
これはMLX形式に基づく4ビット量子化言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル 複数言語対応
D
mlx-community
238
3
Devstral Small 2505 8bit
Apache-2.0
Devstral-Small-2505-8bitは、mistralai/Devstral-Small-2505を基に変換された8ビット量子化モデルで、MLXフレームワークに適しており、複数の言語のテキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
789
1
Medgemma 27b Text It Bf16
その他
MedGemma-27B-Text-IT-BF16は、MLX形式に変換された大規模言語モデルで、医療健康分野のテキスト処理タスクに特化しています。
大規模言語モデル
M
mlx-community
146
1
Medgemma 4b It 8bit
その他
MedGemma-4B-IT-8bitはGoogleのMedGemmaモデルをMLX形式に変換したバージョンで、医療分野のビジュアル言語タスクに特化しています。
画像生成テキスト Transformers
M
mlx-community
116
1
Medgemma 4b It 4bit
その他
MedGemma-4B-IT-4bitは、医学分野向けに設計されたビジョン言語モデルで、画像とテキストの処理をサポートし、医学画像解析などのタスクに適しています。
画像生成テキスト Transformers
M
mlx-community
196
1
Medgemma 27b Text It 8bit
その他
MedGemmaはGoogleが開発した医療分野の大規模言語モデルで、臨床推論と医療テキスト生成タスクに特化しています。
大規模言語モデル
M
mlx-community
129
2
Medgemma 27b Text It 4bit
その他
MedGemma-27B-Text-IT-4bitはGoogleのMedGemma-27B-Text-ITモデルを変換したMLXフォーマットモデルで、医療および臨床推論タスクに最適化されています。
大規模言語モデル
M
mlx-community
193
3
Devstral Small 2505 Bf16
Apache-2.0
Devstral-Small-2505-bf16は、MistralAIのDevstral-Small-2505モデルを変換したMLX形式のモデルで、多言語処理タスクをサポートします。
大規模言語モデル 複数言語対応
D
mlx-community
207
1
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bitはQwen3-32Bモデルを8ビット量子化したバージョンで、テキスト生成タスクに適しており、mlx-communityによってリリースされました。
大規模言語モデル
Q
mlx-community
211
1
Gemma 3 27b It 4bit DWQ
これはGoogle Gemma 3 27B ITモデルを変換した4ビット量子化バージョンで、MLXフレームワーク向けに最適化されています。
大規模言語モデル
G
mlx-community
102
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12Bモデルの4ビット量子化バージョンで、MLXフレームワークに適しており、効率的なテキスト生成タスクをサポートします。
大規模言語モデル
G
mlx-community
554
2
Qwen3 4B 4bit DWQ
Apache-2.0
このモデルはQwen3-4Bの4ビットDWQ量子化バージョンで、MLX形式に変換され、mlxライブラリを使用したテキスト生成が容易になります。
大規模言語モデル
Q
mlx-community
517
2
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
これはQwen/Qwen3-30B-A3BからMLX形式に変換された4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
240
5
Spark TTS 0.5B 8bit
これはMLXフォーマットに基づくテキスト音声変換モデルで、英語と中国語をサポートし、prince-canuma/Spark-TTS-0.5Bから変換されました。
音声合成 複数言語対応
S
mlx-community
56
1
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508は、Qwen/Qwen3-30B-A3BをMLX形式に変換した4ビット量子化モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
mlx-community
410
12
Phi 4 Mini Reasoning MLX 4bit
MIT
これは、マイクロソフトのPhi-4-mini-reasoningモデルを変換したMLX形式の4ビット量子化バージョンで、テキスト生成タスクに適しています。
大規模言語モデル
P
lmstudio-community
72.19k
2
Josiefied Qwen3 1.7B Abliterated V1 4bit
Qwen3-1.7Bをベースにした4ビット量子化バージョン、MLXフレームワーク向けの軽量大規模言語モデル
大規模言語モデル
J
mlx-community
135
2
Qwen3 30B A3B MLX 8bit
Apache-2.0
このモデルはQwen/Qwen3-30B-A3Bから変換されたMLX形式モデルで、8ビット量子化をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
7,759
6
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16は、Qwen/Qwen3-8Bを基に変換されたMLX形式のモデルで、テキスト生成タスクをサポートします。
大規模言語モデル
Q
mlx-community
1,658
1
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bitはQwen/Qwen3-30B-A3BモデルのMLX形式に変換されたバージョンで、Appleチップ上で効率的に動作することができます。
大規模言語モデル
Q
mlx-community
1,553
6
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bitは通義千問1.7Bモデルの4ビット量子化バージョンで、MLXフレームワーク形式に変換されており、Apple Siliconデバイスで効率的に実行できます。
大規模言語モデル
Q
mlx-community
11.85k
2
Qwen3 8B MLX 8bit
Apache-2.0
Qwen/Qwen3-8Bを基に変換された8ビット量子化MLX形式の大規模言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
Q
lmstudio-community
63.46k
2
Qwen3 32B MLX 4bit
Apache-2.0
このモデルはQwen3-32BのMLX形式の4ビット量子化バージョンで、Apple Siliconデバイスでの高効率実行に最適化されています。
大規模言語モデル
Q
lmstudio-community
32.14k
3
UI TARS 1.5 7B 4bit
Apache-2.0
UI-TARS-1.5-7B-4bitはマルチモーダルモデルで、画像テキストからテキストへの変換タスクに特化しており、英語をサポートしています。
画像生成テキスト Transformers 複数言語対応
U
mlx-community
184
1
Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B は deepseek-ai によってリリースされた蒸留版大規模言語モデルで、Qwen-7B アーキテクチャに基づいており、テキスト生成タスクに適しています。
大規模言語モデル Transformers
D
mlx-community
1,045
4
Dia 1.6B 4bit
Apache-2.0
Dia-1.6B-4bit はMLXフォーマットに基づく4ビット量子化テキスト音声変換モデルで、nari-labs/Dia-1.6Bから変換されました。
音声合成 英語
D
mlx-community
168
4
GLM 4 32B 0414 8bit
MIT
このモデルはTHUDM/GLM-4-32B-0414から変換された8ビット量子化MLXフォーマットの大規模言語モデルで、中英文テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
G
mlx-community
222
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase