# 代碼生成增強

Motif 2.6B
其他
Motif 2.6B是一個擁有26億參數的語言模型,在AMD Instinct™ MI250 GPU上從頭開始訓練,旨在構建符合人類價值觀、有用且可靠的AI。
大型語言模型 Safetensors 支持多種語言
M
Motif-Technologies
1,470
29
Mimo 7B RL 0530
MIT
MiMo是一系列專為推理任務從頭訓練的7B參數模型,通過優化預訓練和後訓練策略,在數學和代碼推理任務上表現出色。
大型語言模型 Transformers
M
XiaomiMiMo
319
17
Phi 4 Reasoning Unsloth Bnb 4bit
MIT
Phi-4-reasoning是一款由微軟開發的先進推理模型,基於Phi-4進行微調,專注於提升數學、科學和編碼等領域的推理能力。
大型語言模型 Transformers 支持多種語言
P
unsloth
1,969
2
Falcon H1 7B Base
其他
Falcon-H1是由TII開發的混合Transformers + Mamba架構的因果解碼器專用語言模型,支持多語言處理,性能優異。
大型語言模型 Transformers 支持多種語言
F
tiiuae
227
1
Falcon H1 0.5B Base
其他
Falcon-H1是由TII開發的混合Transformers + Mamba架構的僅解碼因果模型,專注於英語NLP任務,性能優異。
大型語言模型 Transformers
F
tiiuae
485
10
Qwen2.5 7B Fuse Exp
這是一個使用mergekit工具通過SCE方法合併多個7B參數規模模型的語言模型
大型語言模型 Transformers
Q
bunnycore
22
2
Gemma 3 27b It Qat Q4 0 GGUF
這是一個實驗性的重新量化模型,基於Google的Gemma-3-27b-it QAT Q4_0量化模型創建,旨在測試重新量化後的性能表現。
大型語言模型
G
Mungert
1,096
6
Gemma 3 27b It Codeforces SFT
該模型是基於google/gemma-3-27b-it在open-r1/codeforces-cots數據集上微調的版本,主要用於代碼生成和編程相關任務。
大型語言模型 Transformers
G
qgallouedec
14
4
Reasoning SCE Coder V1.0
基於SCE融合方法構建的32B參數規模大語言模型,融合了多個高性能預訓練模型
大型語言模型 Transformers
R
BenevolenceMessiah
235
3
Deepseek V2 Lite
DeepSeek-V2-Lite 是一款經濟高效的專家混合(MoE)語言模型,總參數量16B,激活參數量2.4B,支持32k上下文長度。
大型語言模型 Transformers
D
ZZichen
20
1
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5是Yi模型的升級版本,在編程、數學、推理和指令跟隨能力方面表現更出色,同時保持卓越的語言理解、常識推理和閱讀理解能力。
大型語言模型 Transformers
Y
01-ai
70.62k
270
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase