Kimi K2 Instruct 4bit
其他
Kimi-K2-Instruct-4bit 是一个基于 moonshotai/Kimi-K2-Instruct 转换而来的 4bit 量化模型,适用于 MLX 框架。
大型语言模型
K
mlx-community
1,131
4
Qwen3 30B A3B 4bit DWQ 10072025
Apache-2.0
Qwen3-30B-A3B的4位量化版本,适用于MLX框架的高效推理
大型语言模型
Q
mlx-community
150
2
Mistral Small 3.2 24B Instruct 2506 Bf16
Apache-2.0
这是一个基于Mistral-Small-3.2-24B-Instruct-2506转换的MLX格式模型,适用于指令跟随任务。
大型语言模型 支持多种语言
M
mlx-community
163
1
SWE Agent LM 32B 4bit
Apache-2.0
这是一个基于SWE-bench/SWE-agent-LM-32B模型转换而来的4位量化版本,专为软件工程任务优化的语言模型。
大型语言模型
Transformers 英语

S
mlx-community
31
1
Spark TTS 0.5B Bf16
Spark-TTS-0.5B-fp16 是一个基于 MLX 格式的文本转语音模型,支持英文和中文。
语音合成 支持多种语言
S
mlx-community
121
0
Smoldocling 256M Preview Mlx Bf16 Docling Snap
这是一个256M参数的预览版文档理解模型,专为文档结构解析和内容提取任务设计,支持将图像文档转换为结构化数据。
图像生成文本
Transformers 英语

S
ds4sd
246
1
Qwen3 0.6B 4bit
Apache-2.0
这是一个基于Qwen/Qwen3-0.6B模型转换的4位量化版本,适用于MLX框架的高效推理。
大型语言模型
Q
mlx-community
6,015
5
Internvl3 8B Bf16
其他
InternVL3-8B-bf16 是一个基于 MLX 格式转换的视觉语言模型,支持多语言图像文本到文本任务。
图像生成文本
Transformers 其他

I
mlx-community
96
1
VL Rethinker 7B Fp16
Apache-2.0
该模型是基于Qwen2.5-VL-7B-Instruct转换而来的多模态视觉语言模型,支持视觉问答任务。
文本生成图像
Transformers 英语

V
mlx-community
17
0
Gemma 3 27b It Qat 3bit
其他
该模型是从 google/gemma-3-27b-it-qat-q4_0-unquantized 转换为 MLX 格式的 3 位量化版本,适用于图像文本到文本任务。
图像生成文本
Transformers 其他

G
mlx-community
197
2
Gemma 3 12b It Qat 4bit
其他
基于 google/gemma-3-12b-it-qat-q4_0-unquantized 转换的 MLX 格式模型,支持图文生成任务
文本生成图像
Transformers 其他

G
mlx-community
984
5
Gemma 3 4b It Qat 4bit
其他
Gemma 3 4B IT QAT 4bit 是一个经过量化感知训练(QAT)的4位量化大语言模型,基于Gemma 3架构,专为MLX框架优化。
图像生成文本
Transformers 其他

G
mlx-community
607
1
Llama 4 Maverick 17B 16E Instruct 4bit
其他
基于meta-llama/Llama-4-Maverick-17B-128E-Instruct转换的4位量化模型,支持多语言文本生成任务
大型语言模型 支持多种语言
L
mlx-community
538
6
Llama 3.2 11B Vision Instruct Abliterated 8 Bit
这是一个基于Llama-3.2-11B-Vision-Instruct的多模态模型,支持图像和文本输入,并生成文本输出。
图像生成文本
Transformers 支持多种语言

L
mlx-community
128
0
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98