Qwen3 30B A1.5B High Speed
Qwen3-30B的高速優化版本,通過減少激活專家數量實現推理速度翻倍,適用於需要快速響應的文本生成場景
大型語言模型
Transformers

Q
DavidAU
179
7
Falcon H1 34B Base
其他
Falcon-H1是由阿聯酋技術創新研究院開發的混合架構語言模型,結合了Transformers和Mamba架構的優勢,支持多語言處理。
大型語言模型
Transformers 支持多種語言

F
tiiuae
175
7
Bamba 9B V2
Apache-2.0
Bamba-9B-v2 是基於 Mamba-2 架構構建的僅解碼器語言模型,專注於文本生成任務,性能優於 Llama 3.1 8B。
大型語言模型
Transformers

B
ibm-ai-platform
3,634
15
Llama 3.3 70B Instruct Quantized.w4a16
基於Meta-Llama-3.1架構的量化優化模型,支持多語言,適用於商業和研究場景,在減少資源需求的同時保持高性能。
大型語言模型
Transformers 支持多種語言

L
RedHatAI
19.25k
1
Minitron 8B Base
其他
Minitron-8B-Base是通過剪裁Nemotron-4 15B獲得的大型語言模型,採用蒸餾持續訓練方法,相比從頭訓練節省了40倍的訓練token和1.8倍的計算成本。
大型語言模型
Transformers 英語

M
nvidia
5,725
66
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98