Qwen3 8B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新迭代,提供稠密模型與混合專家(MoE)模型的完整套件。基於大規模訓練,Qwen3在推理能力、指令遵循、智能體功能及多語言支持方面實現突破性進展。
大型語言模型
Q
Qwen
4,474
8
Qwen3 235B A22B GGUF
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整套件。基於海量訓練數據,Qwen3在推理能力、指令遵循、智能體功能及多語言支持方面實現突破性進展。
大型語言模型
Q
Qwen
1,576
2
Qwen3 0.6B GPTQ Int8
Apache-2.0
Qwen3-0.6B是通義千問系列最新一代0.6B參數規模的大語言模型,支持思維與非思維模式切換,具備卓越的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
1,231
3
Qwen3 4B AWQ
Apache-2.0
Qwen3-4B是通義千問系列最新一代40億參數大語言模型,支持思維與非思維模式切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
2,755
4
Qwen3 0.6B GGUF
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整稠密模型與混合專家(MoE)架構。經過海量訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型
Q
Qwen
2,511
5
Qwen3 30B A3B GPTQ Int4
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整組合,在推理、指令遵循、智能體能力和多語言支持方面實現了突破性進展。
大型語言模型
Transformers

Q
Qwen
5,004
9
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供密集型和混合專家(MoE)模型的全面解決方案,在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Q
Qwen
10.35k
23
Qwen3 14B AWQ
Apache-2.0
Qwen3-14B-AWQ是通義千問系列最新一代大語言模型的4-bit AWQ量化版本,支持思維模式與非思維模式無縫切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
15.17k
21
Qwen3 32B AWQ
Apache-2.0
Qwen3-32B-AWQ是通義千問系列最新一代32.8B參數的大語言模型,採用AWQ 4-bit量化技術,支持思維與非思維模式切換,具備卓越的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
35.67k
54
Qwen3 235B A22B INT4 W4A16
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,235B參數混合專家(MoE)模型,經INT4量化後顯著降低內存佔用
大型語言模型
Transformers

Q
justinjja
4,234
6
Qwen3 235B A22B INT4MIX
Apache-2.0
Qwen3-235B-A22B是通義大模型系列的最新一代產品,提供了一系列密集和混合專家(MoE)模型,在推理、指令遵循、智能體能力和多語言支持方面取得了突破性進展。
大型語言模型
Transformers

Q
fastllm
144
2
Qwen3 32B GPTQ Int4
Apache-2.0
Qwen3是通義千問系列大語言模型的最新8B參數版本,支持思維模式切換、多語言處理和工具調用,具備強大的推理和對話能力。
大型語言模型
Transformers

Q
JunHowie
1,079
3
Qwen3 32B GGUF
Apache-2.0
Qwen3-32B是由Qwen團隊開發的大語言模型,支持131,072 tokens的上下文長度,具備強大的數學、編程和常識推理能力。
大型語言模型
Q
lmstudio-community
56.66k
7
Qwen3 0.6B GGUF
通義千問3 0.6B的量化版本,適用於文本生成任務,支持32k上下文長度和多語言處理。
大型語言模型
Q
lmstudio-community
9,063
5
Qwen3 1.7B GGUF
Qwen3-1.7B是由Qwen開發的1.7B參數規模的大語言模型,支持32k tokens超長上下文,擅長創意寫作、角色扮演和多輪對話。
大型語言模型
Q
lmstudio-community
13.32k
3
Qwen3 4B GGUF
Qwen3-4B是由Qwen開發的大語言模型,支持131,072 tokens的上下文長度,擅長創意寫作、角色扮演和多輪對話。
大型語言模型
Q
lmstudio-community
26.16k
8
Qwen3 235B A22B FP8
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整套件。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型
Transformers

Q
Qwen
47.30k
68
Qwen3 30B A3B GGUF
Apache-2.0
Qwen3是阿里雲開發的最新大語言模型系列,支持思維模式與非思維模式動態切換,在推理、多語言支持和智能體能力方面表現突出。
大型語言模型 英語
Q
unsloth
261.09k
169
Qwen3 14B GGUF
Qwen3-14B是由Qwen開發的大語言模型,支持多種語言和方言,擅長創意寫作、角色扮演和多輪對話。
大型語言模型
Q
lmstudio-community
56.39k
9
Qwen3 32B FP8
Apache-2.0
Qwen3-32B-FP8是通義千問系列最新一代32.8B參數大語言模型,支持思維與非思維模式切換,具備卓越的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
29.26k
47
Qwen3 14B FP8
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供全系列稠密模型和混合專家(MoE)模型,在推理、指令遵循、智能體能力和多語言支持方面取得突破性進展。
大型語言模型
Transformers

Q
Qwen
16.28k
19
Qwen3 8B FP8
Apache-2.0
Qwen3-8B-FP8是通義千問系列大語言模型的最新版本,提供FP8量化版本,支持思維模式與非思維模式的無縫切換,具備強大的推理能力和多語言支持。
大型語言模型
Transformers

Q
Qwen
22.18k
27
Qwen3 235B A22B GGUF
Apache-2.0
Qwen團隊推出的2350億參數大語言模型量化版本,支持131k上下文長度和混合專家架構
大型語言模型
Q
lmstudio-community
22.88k
10
Qwen3 8B
Apache-2.0
Qwen3-8B 是 Qwen 系列的最新大語言模型,具備多種先進特性,支持多語言,在推理、指令跟隨等方面表現出色,能為用戶帶來更智能、自然的交互體驗。
大型語言模型
Transformers

Q
unsloth
30.23k
5
Qwen3 235B A22B
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供稠密模型與混合專家(MoE)模型的完整套件,在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型
Transformers

Q
Qwen
159.10k
849
Qwen3 32B
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的稠密模型和專家混合(MoE)模型組合。基於大規模訓練,Qwen3在推理、指令遵循、智能體能力和多語言支持方面實現突破性進展。
大型語言模型
Transformers

Q
Qwen
502.01k
321
Qwen3 30B A3B
Apache-2.0
Qwen3是通義千問系列大語言模型的最新版本,提供完整的稠密模型與混合專家(MoE)模型組合。基於大規模訓練,Qwen3在推理能力、指令遵循、智能體功能和多語言支持方面實現突破性進展。
大型語言模型
Transformers

Q
Qwen
218.81k
571
Qwen3 14B
Apache-2.0
Qwen3-14B是通義千問系列的最新大語言模型,具有148億參數,支持思維與非思維模式切換,在推理、指令遵循和智能體能力方面表現優異。
大型語言模型
Transformers

Q
Qwen
297.02k
152
Qwen3 8B
Apache-2.0
Qwen3是通義千問系列大語言模型的最新8B參數版本,支持思維模式與非思維模式無縫切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
550.09k
294
Qwen3 0.6B
Apache-2.0
Qwen3-0.6B是通義千問系列最新一代0.6B參數規模的大語言模型,支持思維與非思維模式切換,具備強大的推理、指令遵循和智能體能力。
大型語言模型
Transformers

Q
Qwen
497.09k
264
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98