ERNIE 4.5 21B A3B PT 8bit
Apache-2.0
ERNIE-4.5-21B-A3B-PT-8bit 是百度 ERNIE-4.5-21B-A3B-PT 模型的 8 位量化版本,轉換為 MLX 格式,適用於蘋果芯片設備。
大型語言模型 支持多種語言
E
mlx-community
123
1
Jan Nano 8bit
Apache-2.0
Jan-nano-8bit 是基於 Menlo/Jan-nano 模型轉換而來的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
J
mlx-community
188
1
Josiefied DeepSeek R1 0528 Qwen3 8B Abliterated V1 8bit
這是一個基於DeepSeek-R1-0528-Qwen3-8B模型轉換的MLX格式8位量化版本,適用於文本生成任務。
大型語言模型
J
mlx-community
847
1
Devstral Small 2505 8bit
Apache-2.0
Devstral-Small-2505-8bit 是一個基於 mistralai/Devstral-Small-2505 轉換的 8 位量化模型,適用於 MLX 框架,支持多種語言的文本生成任務。
大型語言模型 支持多種語言
D
mlx-community
789
1
Spark TTS 0.5B 8bit
這是一個基於MLX格式的文本轉語音模型,支持英文和中文,由prince-canuma/Spark-TTS-0.5B轉換而來。
語音合成 支持多種語言
S
mlx-community
56
1
Csm 1b 8bit
Apache-2.0
這是一個從 sesame/csm-1b 轉換為 MLX 格式的文本轉語音模型,支持英文語言。
語音合成 支持多種語言
C
mlx-community
36
0
Qwen3 235B A22B 8bit
Apache-2.0
該模型是基於Qwen/Qwen3-235B-A22B轉換而來的8位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
477
2
Qwen3 30B A3B MLX 8bit
Apache-2.0
該模型是基於Qwen/Qwen3-30B-A3B轉換而來的MLX格式模型,支持8位量化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基於 Qwen/Qwen3-30B-A3B 轉換的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
4,199
19
Qwen3 30B A3B 8bit
Apache-2.0
Qwen3-30B-A3B-8bit 是 Qwen/Qwen3-30B-A3B 模型的 MLX 格式轉換版本,支持在 Apple 芯片上高效運行。
大型語言模型
Q
mlx-community
1,553
6
Qwen3 8B MLX 8bit
Apache-2.0
基於Qwen/Qwen3-8B轉換的8位量化MLX格式大語言模型,適用於文本生成任務
大型語言模型
Q
lmstudio-community
63.46k
2
GLM 4 32B 0414 8bit
MIT
該模型是從THUDM/GLM-4-32B-0414轉換而來的8位量化MLX格式大語言模型,支持中英文文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
222
4
VL Rethinker 7B 8bit
Apache-2.0
VL-Rethinker-7B-8bit 是一個基於 Qwen2.5-VL-7B-Instruct 的多模態模型,支持視覺問答任務。
文本生成圖像
Transformers 英語

V
mlx-community
21
0
VL Rethinker 72B 8bit
Apache-2.0
該模型是基於Qwen2.5-VL-7B-Instruct轉換而來的多模態視覺語言模型,支持8位量化,適用於視覺問答任務。
文本生成圖像
Transformers 英語

V
mlx-community
18
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98