Hunyuan A13B Instruct 4bit
其他
騰訊混元A13B大語言模型的4bit量化版本,適用於指令跟隨任務
大型語言模型
H
mlx-community
201
4
Josiefied Qwen3 30B A3B Abliterated V2 4bit
這是一個基於Qwen3-30B模型轉換而來的4位量化版本,適用於MLX框架的文本生成任務。
大型語言模型
J
mlx-community
194
1
Kimi Dev 72B GGUF
MIT
Kimi-Dev-72B的量化版本,採用先進的非線性最優量化和多頭潛在注意力機制,減少存儲和計算需求。
大型語言模型 其他
K
ubergarm
2,780
1
Delta Vector Austral 24B Winton GGUF
Apache-2.0
Delta-Vector的Austral-24B-Winton模型的量化版本,使用llama.cpp工具進行量化處理,適用於不同硬件配置的高效運行。
大型語言模型 英語
D
bartowski
421
1
Deepseek R1 0528 Qwen3 8B 6bit
MIT
基於DeepSeek-R1-0528-Qwen3-8B模型轉換的6位量化版本,適用於MLX框架的文本生成任務。
大型語言模型
D
mlx-community
582
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
這是一個基於Qwen3-235B-A22B-8bit模型轉換而來的4位量化版本,專為MLX框架優化,適用於文本生成任務。
大型語言模型
Q
mlx-community
200
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
該模型是基於 deepseek-ai/deepseek-r1-0528-Qwen3-8B 轉換的 MLX 格式版本,適用於蘋果設備的本地推理。
大型語言模型
D
mlx-community
2,298
1
Deepseek Ai DeepSeek R1 0528 GGUF
MIT
DeepSeek-R1-0528 是一個大型語言模型,經過量化處理以優化在不同硬件上的運行效率。
大型語言模型
D
bartowski
2,703
6
PKU DS LAB.FairyR1 32B GGUF
FairyR1-32B 是一個32B參數規模的大型語言模型,由PKU-DS-LAB開發,專注於文本生成任務。
大型語言模型
P
DevQuasar
134
1
GLM 4 32B 0414 4bit DWQ
MIT
這是THUDM/GLM-4-32B-0414模型的MLX格式版本,經過4位DWQ量化處理,適用於蘋果芯片設備的高效推理。
大型語言模型 支持多種語言
G
mlx-community
156
4
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bit是基於Qwen3-32B模型量化的8位版本,適用於文本生成任務,由mlx-community發佈。
大型語言模型
Q
mlx-community
211
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基於Qwen3-235B-A22B-8bit模型轉換而來的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
70
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12B模型的4位量化版本,適用於MLX框架,支持高效文本生成任務。
大型語言模型
G
mlx-community
554
2
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的代碼生成模型,專注於指令微調,適用於代碼生成和編程輔助任務。
大型語言模型
PyTorch
A
averntech
87
1
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
這是一個基於Qwen/Qwen3-235B-A22B模型轉換而來的混合3-6位量化版本,適用於蘋果MLX框架的高效推理。
大型語言模型
Q
mlx-community
100
2
Qwen Qwen2.5 VL 72B Instruct GGUF
其他
Qwen2.5-VL-72B-Instruct的多模態大語言模型量化版本,支持圖像文本到文本任務,適用於多種量化級別,從高精度到低內存需求。
文本生成圖像 英語
Q
bartowski
1,336
1
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
這是一個基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
410
12
Nvidia.opencodereasoning Nemotron 14B GGUF
由NVIDIA開發的開源代碼推理大語言模型,參數規模為140億,專注於代碼生成和推理任務。
大型語言模型
N
DevQuasar
423
2
Qwen3 30B A3B MNN
Apache-2.0
基於Qwen3-30B-A3B導出的MNN模型,經過4位量化後的版本,適用於高效推理。
大型語言模型 英語
Q
taobao-mnn
550
1
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基於Qwen/Qwen3-14B轉換而來的MLX格式模型,使用AWQ量化技術將模型壓縮至4bit,適用於MLX框架的高效推理。
大型語言模型
Q
mlx-community
252
2
Qwen3 8b Ru
Apache-2.0
基於Qwen3-8B的俄語優化大語言模型,專為俄語文本生成任務設計
大型語言模型
Transformers 其他

Q
attn-signs
30
2
Qwen3 30B A3B 4bit DWQ
Apache-2.0
這是一個基於Qwen3-30B-A3B模型的4位量化版本,通過從6位量化蒸餾至4位定製的DWQ量化技術製作,適用於文本生成任務。
大型語言模型
Q
mlx-community
561
19
Qwen3 30B A3B Gptq 8bit
Apache-2.0
Qwen3 30B A3B是一個採用GPTQ方法進行8位量化處理的大語言模型,適用於高效推理場景。
大型語言模型
Transformers

Q
btbtyler09
301
2
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQ 是基於 Qwen/Qwen3-8B 轉換的 4bit AWQ 量化版本,適用於 MLX 框架的文本生成任務。
大型語言模型
Q
mlx-community
1,682
1
Qwen3 30B A3B GGUF
Qwen3-30B-A3B的GGUF量化版本,支持多種比特量化,適用於文本生成任務。
大型語言模型
Q
MaziyarPanahi
158.92k
3
Qwen3 235B A22B 4bit
Apache-2.0
該模型是基於Qwen/Qwen3-235B-A22B轉換至MLX格式的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
該模型是基於Qwen/Qwen3-30B-A3B轉換而來的MLX格式模型,支持8位量化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基於 Qwen/Qwen3-30B-A3B 轉換的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16 是基於 Qwen/Qwen3-8B 轉換的 MLX 格式模型,支持文本生成任務。
大型語言模型
Q
mlx-community
1,658
1
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bit 是 Qwen/Qwen3-30B-A3B 模型的 MLX 格式轉換版本,支持在 Apple 芯片上高效運行。
大型語言模型
Q
mlx-community
1,553
6
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基於Qwen/Qwen3-30B-A3B轉換的4位量化版本,適用於在MLX框架下進行高效的文本生成任務。
大型語言模型
Q
mlx-community
2,394
7
Qwen3 32B MLX 4bit
Apache-2.0
該模型是Qwen3-32B的MLX格式4位量化版本,專為在Apple Silicon設備上高效運行而優化。
大型語言模型
Q
lmstudio-community
32.14k
3
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基於Qwen/Qwen3-14B模型使用mlx-lm轉換的4位量化版本,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
3,178
4
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated 是一個基於 GLM 架構的大規模語言模型,參數規模為 32B,適用於文本生成任務。
大型語言模型
H
DevQuasar
623
2
GLM Z1 32B 0414 4bit
MIT
該模型是基於THUDM/GLM-Z1-32B-0414轉換的4位量化版本,適用於文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
225
2
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
這是一個基於Qwen2.5-32B的合併模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特點,旨在提升性能。
大型語言模型
Transformers

Q
sm54
14
4
GLM 4 32B 0414 8bit
MIT
該模型是從THUDM/GLM-4-32B-0414轉換而來的8位量化MLX格式大語言模型,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
222
4
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414是THUDM團隊開發的大規模語言模型,基於GLM架構,適用於多種文本生成任務。
大型語言模型
G
owentruong
36
2
Qwen2.5 VL 72B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-72B-Instruct的FP8量化版本,支持視覺-文本輸入和文本輸出,由Neural Magic優化發佈。
圖像生成文本
Transformers 英語

Q
parasail-ai
78
1
- 1
- 2
- 3
- 4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98