# 大語言模型

Hunyuan A13B Instruct 4bit
其他
騰訊混元A13B大語言模型的4bit量化版本,適用於指令跟隨任務
大型語言模型
H
mlx-community
201
4
Josiefied Qwen3 30B A3B Abliterated V2 4bit
這是一個基於Qwen3-30B模型轉換而來的4位量化版本,適用於MLX框架的文本生成任務。
大型語言模型
J
mlx-community
194
1
Kimi Dev 72B GGUF
MIT
Kimi-Dev-72B的量化版本,採用先進的非線性最優量化和多頭潛在注意力機制,減少存儲和計算需求。
大型語言模型 其他
K
ubergarm
2,780
1
Delta Vector Austral 24B Winton GGUF
Apache-2.0
Delta-Vector的Austral-24B-Winton模型的量化版本,使用llama.cpp工具進行量化處理,適用於不同硬件配置的高效運行。
大型語言模型 英語
D
bartowski
421
1
Deepseek R1 0528 Qwen3 8B 6bit
MIT
基於DeepSeek-R1-0528-Qwen3-8B模型轉換的6位量化版本,適用於MLX框架的文本生成任務。
大型語言模型
D
mlx-community
582
1
Qwen3 235B A22B 4bit DWQ 053125
Apache-2.0
這是一個基於Qwen3-235B-A22B-8bit模型轉換而來的4位量化版本,專為MLX框架優化,適用於文本生成任務。
大型語言模型
Q
mlx-community
200
1
Deepseek R1 0528 Qwen3 8B Bf16
MIT
該模型是基於 deepseek-ai/deepseek-r1-0528-Qwen3-8B 轉換的 MLX 格式版本,適用於蘋果設備的本地推理。
大型語言模型
D
mlx-community
2,298
1
Deepseek Ai DeepSeek R1 0528 GGUF
MIT
DeepSeek-R1-0528 是一個大型語言模型,經過量化處理以優化在不同硬件上的運行效率。
大型語言模型
D
bartowski
2,703
6
PKU DS LAB.FairyR1 32B GGUF
FairyR1-32B 是一個32B參數規模的大型語言模型,由PKU-DS-LAB開發,專注於文本生成任務。
大型語言模型
P
DevQuasar
134
1
GLM 4 32B 0414 4bit DWQ
MIT
這是THUDM/GLM-4-32B-0414模型的MLX格式版本,經過4位DWQ量化處理,適用於蘋果芯片設備的高效推理。
大型語言模型 支持多種語言
G
mlx-community
156
4
Qwen3 32B 4bit DWQ
Apache-2.0
Qwen3-32B-8bit是基於Qwen3-32B模型量化的8位版本,適用於文本生成任務,由mlx-community發佈。
大型語言模型
Q
mlx-community
211
1
Qwen3 235B A22B 4bit DWQ
Apache-2.0
Qwen3-235B-A22B-4bit-DWQ是基於Qwen3-235B-A22B-8bit模型轉換而來的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
70
1
Gemma 3 12b It 4bit DWQ
Gemma 3 12B模型的4位量化版本,適用於MLX框架,支持高效文本生成任務。
大型語言模型
G
mlx-community
554
2
Avern 1.5 Mintra
MIT
Qwen2.5-Coder-7B-Instruct 是一個基於 Qwen2.5 架構的 7B 參數規模的代碼生成模型,專注於指令微調,適用於代碼生成和編程輔助任務。
大型語言模型 PyTorch
A
averntech
87
1
Qwen3 235B A22B Mixed 3 6bit
Apache-2.0
這是一個基於Qwen/Qwen3-235B-A22B模型轉換而來的混合3-6位量化版本,適用於蘋果MLX框架的高效推理。
大型語言模型
Q
mlx-community
100
2
Qwen Qwen2.5 VL 72B Instruct GGUF
其他
Qwen2.5-VL-72B-Instruct的多模態大語言模型量化版本,支持圖像文本到文本任務,適用於多種量化級別,從高精度到低內存需求。
文本生成圖像 英語
Q
bartowski
1,336
1
Qwen3 30B A3B 4bit DWQ 05082025
Apache-2.0
這是一個基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
240
5
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
410
12
Nvidia.opencodereasoning Nemotron 14B GGUF
由NVIDIA開發的開源代碼推理大語言模型,參數規模為140億,專注於代碼生成和推理任務。
大型語言模型
N
DevQuasar
423
2
Qwen3 30B A3B MNN
Apache-2.0
基於Qwen3-30B-A3B導出的MNN模型,經過4位量化後的版本,適用於高效推理。
大型語言模型 英語
Q
taobao-mnn
550
1
Qwen3 14B 4bit AWQ
Apache-2.0
Qwen3-14B-4bit-AWQ是基於Qwen/Qwen3-14B轉換而來的MLX格式模型,使用AWQ量化技術將模型壓縮至4bit,適用於MLX框架的高效推理。
大型語言模型
Q
mlx-community
252
2
Qwen3 8b Ru
Apache-2.0
基於Qwen3-8B的俄語優化大語言模型,專為俄語文本生成任務設計
大型語言模型 Transformers 其他
Q
attn-signs
30
2
Qwen3 30B A3B 4bit DWQ
Apache-2.0
這是一個基於Qwen3-30B-A3B模型的4位量化版本,通過從6位量化蒸餾至4位定製的DWQ量化技術製作,適用於文本生成任務。
大型語言模型
Q
mlx-community
561
19
Qwen3 30B A3B Gptq 8bit
Apache-2.0
Qwen3 30B A3B是一個採用GPTQ方法進行8位量化處理的大語言模型,適用於高效推理場景。
大型語言模型 Transformers
Q
btbtyler09
301
2
Qwen3 8B 4bit AWQ
Apache-2.0
Qwen3-8B-4bit-AWQ 是基於 Qwen/Qwen3-8B 轉換的 4bit AWQ 量化版本,適用於 MLX 框架的文本生成任務。
大型語言模型
Q
mlx-community
1,682
1
Qwen3 30B A3B GGUF
Qwen3-30B-A3B的GGUF量化版本,支持多種比特量化,適用於文本生成任務。
大型語言模型
Q
MaziyarPanahi
158.92k
3
Qwen3 235B A22B 4bit
Apache-2.0
該模型是基於Qwen/Qwen3-235B-A22B轉換至MLX格式的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
該模型是基於Qwen/Qwen3-30B-A3B轉換而來的MLX格式模型,支持8位量化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基於 Qwen/Qwen3-30B-A3B 轉換的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16 是基於 Qwen/Qwen3-8B 轉換的 MLX 格式模型,支持文本生成任務。
大型語言模型
Q
mlx-community
1,658
1
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bit 是 Qwen/Qwen3-30B-A3B 模型的 MLX 格式轉換版本,支持在 Apple 芯片上高效運行。
大型語言模型
Q
mlx-community
1,553
6
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基於Qwen/Qwen3-30B-A3B轉換的4位量化版本,適用於在MLX框架下進行高效的文本生成任務。
大型語言模型
Q
mlx-community
2,394
7
Qwen3 32B MLX 4bit
Apache-2.0
該模型是Qwen3-32B的MLX格式4位量化版本,專為在Apple Silicon設備上高效運行而優化。
大型語言模型
Q
lmstudio-community
32.14k
3
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基於Qwen/Qwen3-14B模型使用mlx-lm轉換的4位量化版本,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
3,178
4
Huihui Ai.glm 4 32B 0414 Abliterated GGUF
GLM-4-32B-0414-abliterated 是一個基於 GLM 架構的大規模語言模型,參數規模為 32B,適用於文本生成任務。
大型語言模型
H
DevQuasar
623
2
GLM Z1 32B 0414 4bit
MIT
該模型是基於THUDM/GLM-Z1-32B-0414轉換的4位量化版本,適用於文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
225
2
Qwq DeepSeek R1 SkyT1 Flash Lightest 32B
這是一個基於Qwen2.5-32B的合併模型,融合了DeepSeek-R1-Distill-Qwen-32B、QwQ-32B和Sky-T1-32B-Flash的特點,旨在提升性能。
大型語言模型 Transformers
Q
sm54
14
4
GLM 4 32B 0414 8bit
MIT
該模型是從THUDM/GLM-4-32B-0414轉換而來的8位量化MLX格式大語言模型,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
222
4
GLM 4 32B 0414 EXL3
Apache-2.0
GLM-4-32B-0414是THUDM團隊開發的大規模語言模型,基於GLM架構,適用於多種文本生成任務。
大型語言模型
G
owentruong
36
2
Qwen2.5 VL 72B Instruct FP8 Dynamic
Apache-2.0
Qwen2.5-VL-72B-Instruct的FP8量化版本,支持視覺-文本輸入和文本輸出,由Neural Magic優化發佈。
圖像生成文本 Transformers 英語
Q
parasail-ai
78
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase