# 小参数高性能

Smollm3 3B
Apache-2.0
SmolLM3是一款参数为30亿的语言模型,旨在突破小模型的性能边界。它支持6种语言,具备高级推理能力和长上下文处理能力,是一个完全开源的模型。
大型语言模型 Transformers 支持多种语言
S
HuggingFaceTB
1,138
99
Smollm3 3B Base
Apache-2.0
SmolLM3是一款拥有30亿参数的开源语言模型,支持6种语言,具备强大的推理能力和长上下文处理能力。
大型语言模型 Transformers 支持多种语言
S
HuggingFaceTB
1,208
41
TBAC VLR1 3B Preview
Apache-2.0
由腾讯PCG基础算法中心微调的多模态语言模型,基于Qwen2.5-VL-3B-Instruct优化,在同规模模型中实现多项多模态推理基准的最先进性能
图像生成文本 英语
T
TencentBAC
328
11
Hymba 1.5B Base
其他
Hymba-1.5B-Base 是 NVIDIA 开发的一款基础文本生成模型,采用混合架构结合 Mamba 和注意力头,适用于多种自然语言生成任务。
大型语言模型 Transformers
H
nvidia
3,492
142
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一个开源代码语言模型,参数规模为15亿,支持52种编程语言,具备128K tokens的长文本理解能力。
大型语言模型 Transformers
Y
01-ai
295
34
Yi Coder 9B
Apache-2.0
Yi-Coder 是一个开源代码语言模型系列,在参数规模小于100亿的情况下提供最先进的编码性能。
大型语言模型 Transformers
Y
01-ai
4,066
43
Powerlm 3b
Apache-2.0
PowerLM-3B是一个30亿参数的小型语言模型,采用Power学习率调度器训练,在自然语言多选、代码生成和数学推理等多个基准测试中表现优异。
大型语言模型 Transformers
P
ibm-research
11.07k
20
SAM
Apache-2.0
70亿参数的小型推理模型,在多个基准测试上超越更大规模的模型
大型语言模型 Transformers 英语
S
SuperAGI
138
33
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase