Deepseek R1 0528 Qwen3 8B Bf16
MIT
該模型是基於 deepseek-ai/deepseek-r1-0528-Qwen3-8B 轉換的 MLX 格式版本,適用於蘋果設備的本地推理。
大型語言模型
D
mlx-community
2,298
1
Deepseek R1 0528 Qwen3 8B 4bit
MIT
該模型是基於DeepSeek-R1-0528-Qwen3-8B轉換的4位量化版本,專為MLX框架優化,適用於文本生成任務。
大型語言模型
D
mlx-community
924
1
Qwen3 30B A3B 4bit DWQ 0508
Apache-2.0
Qwen3-30B-A3B-4bit-DWQ-0508是基於Qwen/Qwen3-30B-A3B轉換至MLX格式的4位量化模型,適用於文本生成任務。
大型語言模型
Q
mlx-community
410
12
Qwen3 235B A22B 4bit
Apache-2.0
該模型是基於Qwen/Qwen3-235B-A22B轉換至MLX格式的4位量化版本,適用於文本生成任務。
大型語言模型
Q
mlx-community
974
6
Qwen3 30B A3B MLX 8bit
Apache-2.0
該模型是基於Qwen/Qwen3-30B-A3B轉換而來的MLX格式模型,支持8位量化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
7,759
6
Qwen3 30B A3B MLX 4bit
Apache-2.0
Qwen3-30B-A3B-MLX-8bit 是基於 Qwen/Qwen3-30B-A3B 轉換的 8 位量化版本,專為 MLX 框架優化,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
4,199
19
Qwen3 8B Bf16
Apache-2.0
Qwen3-8B-bf16 是基於 Qwen/Qwen3-8B 轉換的 MLX 格式模型,支持文本生成任務。
大型語言模型
Q
mlx-community
1,658
1
Qwen3 30B A3B 4bit
Apache-2.0
Qwen3-30B-A3B-4bit是基於Qwen/Qwen3-30B-A3B轉換的4位量化版本,適用於在MLX框架下進行高效的文本生成任務。
大型語言模型
Q
mlx-community
2,394
7
Qwen3 4B 4bit
Apache-2.0
Qwen3-4B-4bit 是從 Qwen/Qwen3-4B 轉換至 MLX 格式的 4 位量化版本,適用於在 Apple 芯片上高效運行。
大型語言模型
Q
mlx-community
7,400
6
Qwen3 8B MLX 8bit
Apache-2.0
基於Qwen/Qwen3-8B轉換的8位量化MLX格式大語言模型,適用於文本生成任務
大型語言模型
Q
lmstudio-community
63.46k
2
Qwen3 14B MLX 4bit
Apache-2.0
Qwen3-14B-4bit是基於Qwen/Qwen3-14B模型使用mlx-lm轉換的4位量化版本,適用於文本生成任務。
大型語言模型
Q
lmstudio-community
3,178
4
GLM Z1 32B 0414 4bit
MIT
該模型是基於THUDM/GLM-Z1-32B-0414轉換的4位量化版本,適用於文本生成任務。
大型語言模型 支持多種語言
G
mlx-community
225
2
Glowing Forest 2 12B
璀璨森林2代是基於璀璨森林1.5版和Rei-12B模型線性合併而成的大語言模型,專注於創意寫作和角色扮演任務。
大型語言模型
Transformers 英語

G
Ateron
23
2
Gemma 3 12b Novision
由google/gemma-3-12b-it轉換而來的純文本版本,移除了視覺組件,專注於文本生成任務
大型語言模型
Transformers

G
gghfez
86
2
Gemma 3 4b Novision
Gemma-3-4b純文本模型是基於google/gemma-3-4b-it轉換而來的純文本版本,移除了視覺組件,專注於文本生成任務。
大型語言模型
Transformers

G
gghfez
40.57k
2
Llama 3 8B Fixed Special Embedding
其他
這是Llama 3 8B基礎模型的修復版本,解決了原始模型中特殊標記權重為零導致的NaN梯度問題。
大型語言模型
Transformers

L
imone
144
17
Saiga Llama3 8b Gguf
其他
基於Llama3 8B模型的俄語優化版本,支持文本生成任務
大型語言模型 其他
S
IlyaGusev
1,008
79
Vistral 7B Chat Function Calling
Apache-2.0
基於Vistral-7B-chat微調的模型,支持函數調用功能。
大型語言模型
Transformers 支持多種語言

V
hiieu
152
12
Nethena 20B GPTQ
Nethena-20B是一個由NeverSleep開發的20B參數大語言模型,適用於角色扮演、情感交互及一般用途。
大型語言模型
Transformers

N
TheBloke
29
7
Llama 2 7b Chat Coreml
其他
這是Meta的Llama-2-7b-chat-hf模型的Core ML版本,專為評估和測試目的設計。
大型語言模型
Transformers

L
coreml-projects
1,468
137
Distilbert Base Uncased Finetuned Clinc
Apache-2.0
該模型是基於DistilBERT在clinc_oos數據集上微調的文本分類模型,主要用於意圖識別任務。
文本分類
Transformers

D
frahman
17
0
Distilbert Base Uncased Finetuned Clinc
Apache-2.0
該模型是基於DistilBERT在clinc_oos數據集上微調的文本分類模型,主要用於意圖識別任務。
文本分類
Transformers

D
msavel-prnt
15
0
Distilbert Base Uncased Finetuned Clinc
Apache-2.0
該模型是基於DistilBERT在clinc_oos數據集上微調的文本分類模型,主要用於意圖識別任務。
文本分類
Transformers

D
arianpasquali
19
0
Distilbert Base Uncased Finetuned Clinc
Apache-2.0
該模型是基於DistilBERT在clinc_oos數據集上微調的文本分類模型,準確率達到91.87%。
文本分類
Transformers

D
MhF
17
0
Distilbert Base Uncased Distilled Clinc
Apache-2.0
基於DistilBERT的輕量級文本分類模型,在CLINC OOS數據集上微調,用於意圖識別任務
文本分類
Transformers

D
MhF
17
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98