# 代码生成增强

Motif 2.6B
其他
Motif 2.6B是一个拥有26亿参数的语言模型,在AMD Instinct™ MI250 GPU上从头开始训练,旨在构建符合人类价值观、有用且可靠的AI。
大型语言模型 Safetensors 支持多种语言
M
Motif-Technologies
1,470
29
Mimo 7B RL 0530
MIT
MiMo是一系列专为推理任务从头训练的7B参数模型,通过优化预训练和后训练策略,在数学和代码推理任务上表现出色。
大型语言模型 Transformers
M
XiaomiMiMo
319
17
Phi 4 Reasoning Unsloth Bnb 4bit
MIT
Phi-4-reasoning是一款由微软开发的先进推理模型,基于Phi-4进行微调,专注于提升数学、科学和编码等领域的推理能力。
大型语言模型 Transformers 支持多种语言
P
unsloth
1,969
2
Falcon H1 7B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的因果解码器专用语言模型,支持多语言处理,性能优异。
大型语言模型 Transformers 支持多种语言
F
tiiuae
227
1
Falcon H1 0.5B Base
其他
Falcon-H1是由TII开发的混合Transformers + Mamba架构的仅解码因果模型,专注于英语NLP任务,性能优异。
大型语言模型 Transformers
F
tiiuae
485
10
Qwen2.5 7B Fuse Exp
这是一个使用mergekit工具通过SCE方法合并多个7B参数规模模型的语言模型
大型语言模型 Transformers
Q
bunnycore
22
2
Gemma 3 27b It Qat Q4 0 GGUF
这是一个实验性的重新量化模型,基于Google的Gemma-3-27b-it QAT Q4_0量化模型创建,旨在测试重新量化后的性能表现。
大型语言模型
G
Mungert
1,096
6
Gemma 3 27b It Codeforces SFT
该模型是基于google/gemma-3-27b-it在open-r1/codeforces-cots数据集上微调的版本,主要用于代码生成和编程相关任务。
大型语言模型 Transformers
G
qgallouedec
14
4
Reasoning SCE Coder V1.0
基于SCE融合方法构建的32B参数规模大语言模型,融合了多个高性能预训练模型
大型语言模型 Transformers
R
BenevolenceMessiah
235
3
Deepseek V2 Lite
DeepSeek-V2-Lite 是一款经济高效的专家混合(MoE)语言模型,总参数量16B,激活参数量2.4B,支持32k上下文长度。
大型语言模型 Transformers
D
ZZichen
20
1
Yi 1.5 34B Chat
Apache-2.0
Yi-1.5是Yi模型的升级版本,在编程、数学、推理和指令跟随能力方面表现更出色,同时保持卓越的语言理解、常识推理和阅读理解能力。
大型语言模型 Transformers
Y
01-ai
70.62k
270
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase