Deepseek R1 0528 Qwen3 8B GGUF
MIT
DeepSeek-R1-0528是DeepSeek R1系列的小版本升級模型,通過增加計算資源和算法優化顯著提升了推理深度和能力,在數學、編程等多個基準測試中表現出色。
大型語言模型
Transformers

D
Sci-fi-vy
1,202
1
Deepseek R1 0528 GPTQ Int4 Int8Mix Compact
MIT
DeepSeek-R1-0528模型的GPTQ量化版本,採用Int4 + 選擇性Int8的量化方案,在保證生成質量的同時減小文件大小。
大型語言模型
Transformers

D
QuantTrio
258
1
Kanana 1.5 8b Instruct 2505
Apache-2.0
Kanana 1.5是Kanana模型家族的新版本,在編碼、數學和函數調用能力方面相比前代有顯著提升,支持32K tokens長度並可擴展至128K tokens。
大型語言模型
Transformers 支持多種語言

K
kakaocorp
1,932
26
Sarvam M
Apache-2.0
Sarvam-M是基於Mistral-Small構建的多語言、混合推理、純文本語言模型,專門針對印度語言和英語進行優化,具備卓越的推理能力和文化適應性。
大型語言模型
Transformers 支持多種語言

S
sarvamai
1,824
159
Qwen3 0.6B GGUF
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整稠密模型與混合專家(MoE)架構。經過海量訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型
Q
Qwen
2,511
5
Qwen3 4B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供了一系列密集型和混合專家(MoE)模型。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面取得了突破性進展。
大型語言模型
Q
Qwen
4,225
6
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供密集型和混合專家(MoE)模型的全面解決方案,在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Q
Qwen
10.35k
23
Qwen3 14B GPTQ Int4
Apache-2.0
Qwen3-4B是通義千問系列最新40億參數大語言模型,支持思維模式與非思維模式切換,在推理、多語言和智能體任務中表現優異。
大型語言模型
Transformers

Q
JunHowie
640
2
Qwen3 32B GGUF
Apache-2.0
Qwen3-32B是由Qwen團隊開發的大語言模型,支持131,072 tokens的上下文長度,具備強大的數學、編程和常識推理能力。
大型語言模型
Q
lmstudio-community
56.66k
7
Qwen3 1.7B GGUF
Qwen3-1.7B是由Qwen開發的1.7B參數規模的大語言模型,支持32k tokens超長上下文,擅長創意寫作、角色扮演和多輪對話。
大型語言模型
Q
lmstudio-community
13.32k
3
Qwen3 8B GGUF
Apache-2.0
Qwen團隊推出的8B參數規模大語言模型,支持超長上下文和多種語言處理
大型語言模型
Q
lmstudio-community
39.45k
6
Qwen3 14B FP8
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供全系列稠密模型和混合專家(MoE)模型,在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Transformers

Q
Qwen
16.28k
19
Qwen3 235B A22B GGUF
Apache-2.0
Qwen團隊推出的2350億參數大語言模型量化版本,支持131k上下文長度和混合專家架構
大型語言模型
Q
lmstudio-community
22.88k
10
Qwen3 4B
Apache-2.0
Qwen3-4B是通義千問系列大模型的最新版本,提供40億參數的語言模型,支持思維與非思維模式切換,具備強大的推理、指令遵循和多語言能力。
大型語言模型
Transformers

Q
Qwen
307.26k
195
M1 32b
Apache-2.0
M1-32B是基於Qwen2.5-32B-Instruct微調的320億參數大語言模型,專為提升多智能體系統中的推理、討論和決策能力而優化。
大型語言模型
Transformers 支持多種語言

M
Can111
179
3
Phi 4 Mini Instruct Abliterated
MIT
Phi-4-mini-instruct是基於合成數據和精選公開網站構建的輕量級開源模型,專注於高質量、強推理能力的數據。支持128K令牌上下文長度,通過監督微調和直接偏好優化進行增強,以確保精準的指令遵循和安全性。
大型語言模型
Transformers 支持多種語言

P
lunahr
250
8
Skywork O1 Open Llama 3.1 8B
其他
Skywork o1 Open-Llama-3.1-8B是基於Llama-3.1-8B訓練的強力對話模型,通過'慢思考'推理風格數據顯著增強推理能力。
大型語言模型
S
Skywork
583
112
35b Beta Long
基於CohereForAI/c4ai-command-r-v01架構微調的350億參數多語言大語言模型,專注長上下文處理與事實型數據生成
大型語言模型
Transformers 支持多種語言

3
CausalLM
79
65
Beyonder 4x7B V2
其他
Beyonder-4x7B-v2是一個基於混合專家模型(MoE)架構的大語言模型,由4個專家模塊組成,專注於不同領域的任務,如對話、編程、創意寫作和數學推理。
大型語言模型
Transformers

B
mlabonne
758
130
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98