Diffucoder 7B Cpgrpo 8bit
DiffuCoder-7B-cpGRPO-8bit是一个转换为MLX格式的代码生成模型,基于apple/DiffuCoder-7B-cpGRPO转换而来,专为开发者提供高效的代码生成工具。
大型语言模型 其他
D
mlx-community
272
2
Diffucoder 7B Cpgrpo 6bit
DiffuCoder-7B-cpGRPO-6bit 是一个基于 MLX 格式转换的文本生成模型,专注于代码和文本扩散任务。
大型语言模型 其他
D
mlx-community
103
1
ERNIE 4.5 21B A3B PT 8bit
Apache-2.0
ERNIE-4.5-21B-A3B-PT-8bit 是百度 ERNIE-4.5-21B-A3B-PT 模型的 8 位量化版本,转换为 MLX 格式,适用于苹果芯片设备。
大型语言模型 支持多种语言
E
mlx-community
123
1
Diffucoder 7B Cpgrpo 4bit
DiffuCoder-7B-cpGRPO-4bit 是一个基于苹果 DiffuCoder-7B-cpGRPO 模型转换而来的 4 位量化版本,专为 MLX 框架优化。
大型语言模型 其他
D
mlx-community
218
1
Hunyuan A13B Instruct 5bit
其他
基于腾讯混元A13B大模型转换的5bit量化版本,适用于苹果芯片的MLX框架
大型语言模型
H
mlx-community
169
2
Hunyuan A13B Instruct 4bit
其他
腾讯混元A13B大语言模型的4bit量化版本,适用于指令跟随任务
大型语言模型
H
mlx-community
201
4
ERNIE 4.5 0.3B PT Bf16
Apache-2.0
ERNIE-4.5-0.3B-PT-bf16 是由百度开发的 ERNIE 系列模型的一个版本,参数规模为 0.3B,使用 bf16 精度进行训练。
大型语言模型 支持多种语言
E
mlx-community
214
1
Jan Nano 8bit
Apache-2.0
Jan-nano-8bit 是基于 Menlo/Jan-nano 模型转换而来的 8 位量化版本,专为 MLX 框架优化,适用于文本生成任务。
大型语言模型
J
mlx-community
188
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
这是一个基于Qwen3-235B-A22B-8bit模型转换而来的4位量化版本,专为MLX框架优化,适用于文本生成任务。
大型语言模型
Q
mlx-community
200
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 Bf16
这是一个基于MLX格式转换的大语言模型,适用于文本生成任务。
大型语言模型
J
mlx-community
2,168
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
这是一个基于DeepSeek-R1-0528-Qwen3-8B模型转换的MLX格式8位量化版本,适用于文本生成任务。
大型语言模型
J
mlx-community
847
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
该模型是基于 deepseek-ai/deepseek-r1-0528-Qwen3-8B 转换的 MLX 格式版本,适用于苹果设备的本地推理。
大型语言模型
D
mlx-community
2,298
1
Llama 3.3 70B Instruct 4bit DWQ
基于Llama 3.3 70B指令微调模型的4位DWQ量化版本,适用于MLX框架的高效推理
大型语言模型 支持多种语言
L
mlx-community
140
2
Devstral Small 2505 4bit DWQ
Apache-2.0
这是一个基于MLX格式的4位量化语言模型,适用于文本生成任务。
大型语言模型 支持多种语言
D
mlx-community
238
3
Devstral Small 2505 Bf16
Apache-2.0
Devstral-Small-2505-bf16 是一个基于 MistralAI 的 Devstral-Small-2505 模型转换而来的 MLX 格式模型,支持多种语言处理任务。
大型语言模型 支持多种语言
D
mlx-community
207
1
Devstral Small 2505 8bit
Apache-2.0
Devstral-Small-2505-8bit 是一个基于 mistralai/Devstral-Small-2505 转换的 8 位量化模型,适用于 MLX 框架,支持多种语言的文本生成任务。
大型语言模型 支持多种语言
D
mlx-community
789
1
Medgemma 27b Text It Bf16
其他
MedGemma-27B-Text-IT-BF16 是一个基于 MLX 格式转换的大型语言模型,专注于医疗健康领域的文本处理任务。
大型语言模型
M
mlx-community
146
1
Medgemma 27b Text It 8bit
其他
MedGemma是基于Google开发的医疗领域大语言模型,专注于临床推理和医疗文本生成任务。
大型语言模型
M
mlx-community
129
2
Medgemma 27b Text It 4bit
其他
MedGemma-27B-Text-IT-4bit是基于Google的MedGemma-27B-Text-IT模型转换而来的MLX格式模型,专为医疗和临床推理任务优化。
大型语言模型
M
mlx-community
193
3
Medgemma 4b It 8bit
其他
MedGemma-4B-IT-8bit是Google MedGemma模型的MLX格式转换版本,专注于医疗领域的视觉语言任务。
图像生成文本
Transformers

M
mlx-community
116
1
Medgemma 4b It 4bit
其他
MedGemma-4B-IT-4bit 是一个专为医学领域设计的视觉语言模型,支持图像和文本处理,适用于医学图像分析等任务。
图像生成文本
Transformers

M
mlx-community
196
1
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bit是基于Qwen3-32B模型量化的8位版本,适用于文本生成任务,由mlx-community发布。
大型语言模型
Q
mlx-community
211
1
Gemma 3 27b It 4bit DWQ
这是一个基于Google Gemma 3 27B IT模型转换的4位量化版本,专为MLX框架优化。
大型语言模型
G
mlx-community
102
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12B模型的4位量化版本,适用于MLX框架,支持高效文本生成任务。
大型语言模型
G
mlx-community
554
2
Qwen3 4B 4bit DWQ
Apache-2.0
该模型是Qwen3-4B的4位DWQ量化版本,转换为MLX格式,方便使用mlx库进行文本生成。
大型语言模型
Q
mlx-community
517
2
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
这是一个基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
240
5
Spark TTS 0.5B 8bit
这是一个基于MLX格式的文本转语音模型,支持英文和中文,由prince-canuma/Spark-TTS-0.5B转换而来。
语音合成 支持多种语言
S
mlx-community
56
1
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
410
12
Phi 4 Mini Reasoning MLX 4bit
MIT
这是一个基于微软Phi-4-mini-reasoning模型转换的MLX格式4位量化版本,适用于文本生成任务。
大型语言模型
P
lmstudio-community
72.19k
2
Josiefied Qwen3 1.7B Abliterated V1 4bit
基于Qwen3-1.7B的4位量化版本,适用于MLX框架的轻量级大语言模型
大型语言模型
J
mlx-community
135
2
Qwen3 30B A3B MLX 8bit
Apache-2.0
该模型是基于Qwen/Qwen3-30B-A3B转换而来的MLX格式模型,支持8位量化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
7,759
6
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16 是基于 Qwen/Qwen3-8B 转换的 MLX 格式模型,支持文本生成任务。
大型语言模型
Q
mlx-community
1,658
1
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bit 是 Qwen/Qwen3-30B-A3B 模型的 MLX 格式转换版本,支持在 Apple 芯片上高效运行。
大型语言模型
Q
mlx-community
1,553
6
Qwen3 1.7B 4bit
Apache-2.0
Qwen3-1.7B-4bit是通义千问1.7B模型的4位量化版本,已转换为MLX框架格式,便于在Apple Silicon设备上高效运行。
大型语言模型
Q
mlx-community
11.85k
2
Qwen3 8B MLX 8bit
Apache-2.0
基于Qwen/Qwen3-8B转换的8位量化MLX格式大语言模型,适用于文本生成任务
大型语言模型
Q
lmstudio-community
63.46k
2
Qwen3 32B MLX 4bit
Apache-2.0
该模型是Qwen3-32B的MLX格式4位量化版本,专为在Apple Silicon设备上高效运行而优化。
大型语言模型
Q
lmstudio-community
32.14k
3
UI TARS 1.5 7B 4bit
Apache-2.0
UI-TARS-1.5-7B-4bit是一个多模态模型,专注于图像文本到文本的转换任务,支持英文语言。
图像生成文本
Transformers 支持多种语言

U
mlx-community
184
1
Deepseek R1 Distill Qwen 7B
DeepSeek-R1-Distill-Qwen-7B 是由 deepseek-ai 发布的蒸馏版大语言模型,基于 Qwen-7B 架构,适用于文本生成任务。
大型语言模型
Transformers

D
mlx-community
1,045
4
Dia 1.6B 6bit
Apache-2.0
Dia-1.6B-6bit 是一个基于 Dia-1.6B 的 6 位量化版本,专为 MLX 框架优化的文本转语音模型。
语音合成 英语
D
mlx-community
76
4
Dia 1.6B 4bit
Apache-2.0
Dia-1.6B-4bit 是一个基于 MLX 格式的 4 位量化文本转语音模型,由 nari-labs/Dia-1.6B 转换而来。
语音合成 英语
D
mlx-community
168
4
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98