Smollm3 3B
Apache-2.0
SmolLM3是一款参数为30亿的语言模型,旨在突破小模型的性能边界。它支持6种语言,具备高级推理能力和长上下文处理能力,是一个完全开源的模型。
大型语言模型
Transformers 支持多种语言

S
HuggingFaceTB
1,138
99
Smollm3 3B Base
Apache-2.0
SmolLM3是一款拥有30亿参数的开源语言模型,支持6种语言,具备强大的推理能力和长上下文处理能力。
大型语言模型
Transformers 支持多种语言

S
HuggingFaceTB
1,208
41
TBAC VLR1 3B Preview
Apache-2.0
由腾讯PCG基础算法中心微调的多模态语言模型,基于Qwen2.5-VL-3B-Instruct优化,在同规模模型中实现多项多模态推理基准的最先进性能
图像生成文本 英语
T
TencentBAC
328
11
Hymba 1.5B Base
其他
Hymba-1.5B-Base 是 NVIDIA 开发的一款基础文本生成模型,采用混合架构结合 Mamba 和注意力头,适用于多种自然语言生成任务。
大型语言模型
Transformers

H
nvidia
3,492
142
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一个开源代码语言模型,参数规模为15亿,支持52种编程语言,具备128K tokens的长文本理解能力。
大型语言模型
Transformers

Y
01-ai
295
34
Yi Coder 9B
Apache-2.0
Yi-Coder 是一个开源代码语言模型系列,在参数规模小于100亿的情况下提供最先进的编码性能。
大型语言模型
Transformers

Y
01-ai
4,066
43
Powerlm 3b
Apache-2.0
PowerLM-3B是一个30亿参数的小型语言模型,采用Power学习率调度器训练,在自然语言多选、代码生成和数学推理等多个基准测试中表现优异。
大型语言模型
Transformers

P
ibm-research
11.07k
20
SAM
Apache-2.0
70亿参数的小型推理模型,在多个基准测试上超越更大规模的模型
大型语言模型
Transformers 英语

S
SuperAGI
138
33
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98