# 小參數高性能

Smollm3 3B
Apache-2.0
SmolLM3是一款參數為30億的語言模型,旨在突破小模型的性能邊界。它支持6種語言,具備高級推理能力和長上下文處理能力,是一個完全開源的模型。
大型語言模型 Transformers 支持多種語言
S
HuggingFaceTB
1,138
99
Smollm3 3B Base
Apache-2.0
SmolLM3是一款擁有30億參數的開源語言模型,支持6種語言,具備強大的推理能力和長上下文處理能力。
大型語言模型 Transformers 支持多種語言
S
HuggingFaceTB
1,208
41
TBAC VLR1 3B Preview
Apache-2.0
由騰訊PCG基礎算法中心微調的多模態語言模型,基於Qwen2.5-VL-3B-Instruct優化,在同規模模型中實現多項多模態推理基準的最先進性能
圖像生成文本 英語
T
TencentBAC
328
11
Hymba 1.5B Base
其他
Hymba-1.5B-Base 是 NVIDIA 開發的一款基礎文本生成模型,採用混合架構結合 Mamba 和注意力頭,適用於多種自然語言生成任務。
大型語言模型 Transformers
H
nvidia
3,492
142
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一個開源代碼語言模型,參數規模為15億,支持52種編程語言,具備128K tokens的長文本理解能力。
大型語言模型 Transformers
Y
01-ai
295
34
Yi Coder 9B
Apache-2.0
Yi-Coder 是一個開源代碼語言模型系列,在參數規模小於100億的情況下提供最先進的編碼性能。
大型語言模型 Transformers
Y
01-ai
4,066
43
Powerlm 3b
Apache-2.0
PowerLM-3B是一個30億參數的小型語言模型,採用Power學習率調度器訓練,在自然語言多選、代碼生成和數學推理等多個基準測試中表現優異。
大型語言模型 Transformers
P
ibm-research
11.07k
20
SAM
Apache-2.0
70億參數的小型推理模型,在多個基準測試上超越更大規模的模型
大型語言模型 Transformers 英語
S
SuperAGI
138
33
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase