Hunyuan A13B Instruct 4bit
其他
腾讯混元A13B大语言模型的4bit量化版本,适用于指令跟随任务
大型语言模型
H
mlx-community
201
4
Josiefied Qwen3 30B A3B Abliterated V2 4bit
这是一个基于Qwen3-30B模型转换而来的4位量化版本,适用于MLX框架的文本生成任务。
大型语言模型
J
mlx-community
194
1
Kimi Dev 72B GGUF
MIT
Kimi-Dev-72B的量化版本,采用先进的非线性最优量化和多头潜在注意力机制,减少存储和计算需求。
大型语言模型 其他
K
ubergarm
2,780
1
Delta Vector Austral 24B Winton GGUF
Apache-2.0
Delta-Vector的Austral-24B-Winton模型的量化版本,使用llama.cpp工具进行量化处理,适用于不同硬件配置的高效运行。
大型语言模型 英语
D
bartowski
421
1
Deepseek R1 0528 Qwen3 8B 6bit
MIT
基于DeepSeek-R1-0528-Qwen3-8B模型转换的6位量化版本,适用于MLX框架的文本生成任务。
大型语言模型
D
mlx-community
582
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
这是一个基于Qwen3-235B-A22B-8bit模型转换而来的4位量化版本,专为MLX框架优化,适用于文本生成任务。
大型语言模型
Q
mlx-community
200
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
该模型是基于 deepseek-ai/deepseek-r1-0528-Qwen3-8B 转换的 MLX 格式版本,适用于苹果设备的本地推理。
大型语言模型
D
mlx-community
2,298
1
Deepseek Ai DeepSeek R1 0528 GGUF
MIT
DeepSeek-R1-0528 是一个大型语言模型,经过量化处理以优化在不同硬件上的运行效率。
大型语言模型
D
bartowski
2,703
6
PKU DS LAB.FairyR1 32B GGUF
FairyR1-32B 是一个32B参数规模的大型语言模型,由PKU-DS-LAB开发,专注于文本生成任务。
大型语言模型
P
DevQuasar
134
1
GLM 4 32B 0414 4bit DWQ
MIT
这是THUDM/GLM-4-32B-0414模型的MLX格式版本,经过4位DWQ量化处理,适用于苹果芯片设备的高效推理。
大型语言模型 支持多种语言
G
mlx-community
156
4
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bit是基于Qwen3-32B模型量化的8位版本,适用于文本生成任务,由mlx-community发布。
大型语言模型
Q
mlx-community
211
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基于Qwen3-235B-A22B-8bit模型转换而来的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
70
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12B模型的4位量化版本,适用于MLX框架,支持高效文本生成任务。
大型语言模型
G
mlx-community
554
2
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一个基于 Qwen2.5 架构的 7B 参数规模的代码生成模型,专注于指令微调,适用于代码生成和编程辅助任务。
大型语言模型
PyTorch
A
averntech
87
1
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
这是一个基于Qwen/Qwen3-235B-A22B模型转换而来的混合3-6位量化版本,适用于苹果MLX框架的高效推理。
大型语言模型
Q
mlx-community
100
2
Qwen Qwen2.5 VL 72B Instruct GGUF
其他
Qwen2.5-VL-72B-Instruct的多模态大语言模型量化版本,支持图像文本到文本任务,适用于多种量化级别,从高精度到低内存需求。
文本生成图像 英语
Q
bartowski
1,336
1
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
这是一个基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基于Qwen/Qwen3-30B-A3B转换至MLX格式的4位量化模型,适用于文本生成任务。
大型语言模型
Q
mlx-community
410
12
Nvidia.opencodereasoning Nemotron 14B GGUF
由NVIDIA开发的开源代码推理大语言模型,参数规模为140亿,专注于代码生成和推理任务。
大型语言模型
N
DevQuasar
423
2
Qwen3 30B A3B MNN
Apache-2.0
基于Qwen3-30B-A3B导出的MNN模型,经过4位量化后的版本,适用于高效推理。
大型语言模型 英语
Q
taobao-mnn
550
1
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基于Qwen/Qwen3-14B转换而来的MLX格式模型,使用AWQ量化技术将模型压缩至4bit,适用于MLX框架的高效推理。
大型语言模型
Q
mlx-community
252
2
Qwen3 8b Ru
Apache-2.0
基于Qwen3-8B的俄语优化大语言模型,专为俄语文本生成任务设计
大型语言模型
Transformers 其他

Q
attn-signs
30
2
Qwen3 30B A3B 4bit DWQ
Apache-2.0
这是一个基于Qwen3-30B-A3B模型的4位量化版本,通过从6位量化蒸馏至4位定制的DWQ量化技术制作,适用于文本生成任务。
大型语言模型
Q
mlx-community
561
19
Qwen3 30B A3B Gptq 8bit
Apache-2.0
Qwen3 30B A3B是一个采用GPTQ方法进行8位量化处理的大语言模型,适用于高效推理场景。
大型语言模型
Transformers

Q
btbtyler09
301
2
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQ 是基于 Qwen/Qwen3-8B 转换的 4bit AWQ 量化版本,适用于 MLX 框架的文本生成任务。
大型语言模型
Q
mlx-community
1,682
1
Qwen3 30B A3B GGUF
Qwen3-30B-A3B的GGUF量化版本,支持多种比特量化,适用于文本生成任务。
大型语言模型
Q
MaziyarPanahi
158.92k
3
Qwen3 235B A22B 4bit
Apache-2.0
该模型是基于Qwen/Qwen3-235B-A22B转换至MLX格式的4位量化版本,适用于文本生成任务。
大型语言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
该模型是基于Qwen/Qwen3-30B-A3B转换而来的MLX格式模型,支持8位量化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基于 Qwen/Qwen3-30B-A3B 转换的 8 位量化版本,专为 MLX 框架优化,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16 是基于 Qwen/Qwen3-8B 转换的 MLX 格式模型,支持文本生成任务。
大型语言模型
Q
mlx-community
1,658
1
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bit 是 Qwen/Qwen3-30B-A3B 模型的 MLX 格式转换版本,支持在 Apple 芯片上高效运行。
大型语言模型
Q
mlx-community
1,553
6
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基于Qwen/Qwen3-30B-A3B转换的4位量化版本,适用于在MLX框架下进行高效的文本生成任务。
大型语言模型
Q
mlx-community
2,394
7
Qwen3 32B MLX 4bit
Apache-2.0
该模型是Qwen3-32B的MLX格式4位量化版本,专为在Apple Silicon设备上高效运行而优化。
大型语言模型
Q
lmstudio-community
32.14k
3
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基于Qwen/Qwen3-14B模型使用mlx-lm转换的4位量化版本,适用于文本生成任务。
大型语言模型
Q
lmstudio-community
3,178
4
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated 是一个基于 GLM 架构的大规模语言模型,参数规模为 32B,适用于文本生成任务。
大型语言模型
H
DevQuasar
623
2
GLM Z1 32B 0414 4bit
MIT
该模型是基于THUDM/GLM-Z1-32B-0414转换的4位量化版本,适用于文本生成任务。
大型语言模型 支持多种语言
G
mlx-community
225
2
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
这是一个基于Qwen2.5-32B的合并模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特点,旨在提升性能。
大型语言模型
Transformers

Q
sm54
14
4
GLM 4 32B 0414 8bit
MIT
该模型是从THUDM/GLM-4-32B-0414转换而来的8位量化MLX格式大语言模型,支持中英文文本生成任务。
大型语言模型 支持多种语言
G
mlx-community
222
4
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414是THUDM团队开发的大规模语言模型,基于GLM架构,适用于多种文本生成任务。
大型语言模型
G
owentruong
36
2
Qwen2.5 VL 72B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-72B-Instruct的FP8量化版本,支持视觉-文本输入和文本输出,由Neural Magic优化发布。
图像生成文本
Transformers 英语

Q
parasail-ai
78
1
- 1
- 2
- 3
- 4
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98