Motif 2.6B
其他
Motif 2.6B是一個擁有26億參數的語言模型,在AMD Instinct™ MI250 GPU上從頭開始訓練,旨在構建符合人類價值觀、有用且可靠的AI。
大型語言模型
Safetensors 支持多種語言
M
Motif-Technologies
1,470
29
Mimo 7B RL 0530
MIT
MiMo是一系列專為推理任務從頭訓練的7B參數模型,通過優化預訓練和後訓練策略,在數學和代碼推理任務上表現出色。
大型語言模型
Transformers

M
XiaomiMiMo
319
17
Phi 4 Reasoning Unsloth Bnb 4bit
MIT
Phi-4-reasoning是一款由微軟開發的先進推理模型,基於Phi-4進行微調,專注於提升數學、科學和編碼等領域的推理能力。
大型語言模型
Transformers 支持多種語言

P
unsloth
1,969
2
Falcon H1 7B Base
其他
Falcon-H1是由TII開發的混合Transformers + Mamba架構的因果解碼器專用語言模型,支持多語言處理,性能優異。
大型語言模型
Transformers 支持多種語言

F
tiiuae
227
1
Falcon H1 0.5B Base
其他
Falcon-H1是由TII開發的混合Transformers + Mamba架構的僅解碼因果模型,專注於英語NLP任務,性能優異。
大型語言模型
Transformers

F
tiiuae
485
10
Qwen2.5 7B Fuse Exp
這是一個使用mergekit工具通過SCE方法合併多個7B參數規模模型的語言模型
大型語言模型
Transformers

Q
bunnycore
22
2
Gemma 3 27b It Qat Q4 0 GGUF
這是一個實驗性的重新量化模型,基於Google的Gemma-3-27b-it QAT Q4_0量化模型創建,旨在測試重新量化後的性能表現。
大型語言模型
G
Mungert
1,096
6
Gemma 3 27b It Codeforces SFT
該模型是基於google/gemma-3-27b-it在open-r1/codeforces-cots數據集上微調的版本,主要用於代碼生成和編程相關任務。
大型語言模型
Transformers

G
qgallouedec
14
4
Reasoning SCE Coder V1.0
基於SCE融合方法構建的32B參數規模大語言模型,融合了多個高性能預訓練模型
大型語言模型
Transformers

R
BenevolenceMessiah
235
3
Deepseek V2 Lite
DeepSeek-V2-Lite 是一款經濟高效的專家混合(MoE)語言模型,總參數量16B,激活參數量2.4B,支持32k上下文長度。
大型語言模型
Transformers

D
ZZichen
20
1
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5是Yi模型的升級版本,在編程、數學、推理和指令跟隨能力方面表現更出色,同時保持卓越的語言理解、常識推理和閱讀理解能力。
大型語言模型
Transformers

Y
01-ai
70.62k
270
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98