Smollm3 3B
Apache-2.0
SmolLM3是一款參數為30億的語言模型,旨在突破小模型的性能邊界。它支持6種語言,具備高級推理能力和長上下文處理能力,是一個完全開源的模型。
大型語言模型
Transformers 支持多種語言

S
HuggingFaceTB
1,138
99
Smollm3 3B Base
Apache-2.0
SmolLM3是一款擁有30億參數的開源語言模型,支持6種語言,具備強大的推理能力和長上下文處理能力。
大型語言模型
Transformers 支持多種語言

S
HuggingFaceTB
1,208
41
TBAC VLR1 3B Preview
Apache-2.0
由騰訊PCG基礎算法中心微調的多模態語言模型,基於Qwen2.5-VL-3B-Instruct優化,在同規模模型中實現多項多模態推理基準的最先進性能
圖像生成文本 英語
T
TencentBAC
328
11
Hymba 1.5B Base
其他
Hymba-1.5B-Base 是 NVIDIA 開發的一款基礎文本生成模型,採用混合架構結合 Mamba 和注意力頭,適用於多種自然語言生成任務。
大型語言模型
Transformers

H
nvidia
3,492
142
Yi Coder 1.5B Chat
Apache-2.0
Yi-Coder-1.5B 是一個開源代碼語言模型,參數規模為15億,支持52種編程語言,具備128K tokens的長文本理解能力。
大型語言模型
Transformers

Y
01-ai
295
34
Yi Coder 9B
Apache-2.0
Yi-Coder 是一個開源代碼語言模型系列,在參數規模小於100億的情況下提供最先進的編碼性能。
大型語言模型
Transformers

Y
01-ai
4,066
43
Powerlm 3b
Apache-2.0
PowerLM-3B是一個30億參數的小型語言模型,採用Power學習率調度器訓練,在自然語言多選、代碼生成和數學推理等多個基準測試中表現優異。
大型語言模型
Transformers

P
ibm-research
11.07k
20
SAM
Apache-2.0
70億參數的小型推理模型,在多個基準測試上超越更大規模的模型
大型語言模型
Transformers 英語

S
SuperAGI
138
33
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98