# MoE架構優化

Qwen 3 14b Drama
Apache-2.0
Qwen3-14B-Base是通義系列最新一代的大語言模型,提供了一系列全面的密集模型和專家混合(MoE)模型,在訓練數據、模型架構和優化技術等方面取得了顯著進展。
大型語言模型 Transformers
Q
float-trip
167
1
Qwen3 14B Base
Apache-2.0
Qwen3-14B-Base是通義系列最新一代大語言模型,提供了一套全面的密集和混合專家(MoE)模型,在訓練數據、模型架構和優化技術方面有顯著改進。
大型語言模型 Transformers
Q
unsloth
4,693
1
Qwen3 8B Base Bnb 4bit
Apache-2.0
Qwen3-8B-Base是Qwen系列最新一代的大語言模型,基於36萬億標記的多語言預訓練數據,優化了模型架構和訓練技術,提供高效精準的語言交互體驗。
大型語言模型 Transformers
Q
unsloth
1,406
1
Qwen3 8B Base Unsloth Bnb 4bit
Apache-2.0
Qwen3-8B-Base是通義系列最新一代大語言模型,提供了一套全面的密集和混合專家(MoE)模型,基於在訓練數據、模型架構和優化技術方面的大量改進。
大型語言模型 Transformers
Q
unsloth
6,214
1
Qwen3 1.7B Base
Apache-2.0
Qwen3-1.7B-Base是通義系列最新一代大語言模型,提供了一系列密集模型和專家混合(MoE)模型,在訓練數據、模型架構和優化技術等方面進行了大量改進。
大型語言模型 Transformers
Q
unsloth
7,444
2
Qwen3 8B Base
Apache-2.0
Qwen3是通義千問系列最新一代大語言模型,提供完整的稠密模型與混合專家(MoE)模型體系,覆蓋119種語言的36萬億token預訓練數據。
大型語言模型 Transformers
Q
Qwen
26.79k
26
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase