# 輕量級語言模型

Zeta 2
MIT
Zeta 2是一個約4.6億參數的小型語言模型(SLM),在消費級電腦上精心打造,支持多種語言。
大型語言模型 支持多種語言
Z
Zeta-LLM
26
3
Minillm 0.2B WithWudao
Apache-2.0
MiniLLM是基於bert4torch框架開發的輕量級中文語言模型,覆蓋預訓練至指令微調全流程,具備基礎對話能力
大型語言模型 Transformers
M
Tongjilibo
127
2
Smollm2 135M Eagle
Apache-2.0
基於SmolLM2-135M微調的俄英雙語輕量級語言模型,增強俄語處理能力但存在明顯侷限
大型語言模型 支持多種語言
S
nyuuzyou
50
3
Qwen2.5 1.5B Instruct
Apache-2.0
專為Gensyn RL Swarm設計的1.5B參數指令微調模型,支持通過點對點強化學習進行本地微調
大型語言模型 Transformers 英語
Q
Gensyn
2.1M
4
Latent Recurrent Depth Lm
MIT
一種實驗性文本生成架構,通過迭代的潛在處理捕獲更深層次的上下文信息
大型語言模型 Transformers 英語
L
codewithdark
38
1
Llama 3.1 0x Mini
0x Mini是由Ozone AI開發的輕量級語言模型,基於Llama-3.1架構優化,提供高效的文本生成能力
大型語言模型 Transformers
L
ozone-research
21
5
Miniplm Qwen 200M
Apache-2.0
基於Qwen架構的2億參數模型,採用MiniPLM知識蒸餾框架從零開始預訓練
大型語言模型 Transformers 英語
M
MiniLLM
203
5
Llammlein 1B
其他
這是一個基於Tinyllama代碼框架、使用RedPajama V2德語語料從頭訓練的德語Tinyllama 1B語言模型。
大型語言模型 Transformers 德語
L
LSX-UniWue
304
14
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
一個採用混合量化技術的文本生成模型,輸出和嵌入張量使用f16格式,其餘張量採用q5_k或q6_k量化,體積小於標準q8_0量化格式且性能與純f16版本持平。
大型語言模型 英語
M
ZeroWw
98
17
Smollm 135M 4bit
Apache-2.0
這是一個4位量化的135M參數小型語言模型,適用於資源受限環境下的文本生成任務。
大型語言模型 Transformers 英語
S
mlx-community
312
1
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-Chat是基於MobiLlama-1B微調的指令跟隨模型,專為資源受限設備設計,強調高效、低內存佔用和快速響應。
大型語言模型 Transformers 英語
M
MBZUAI
44
25
Mobillama 05B
MIT
MobiLlama-05B是一款擁有5億參數的小型語言模型(SLM),專注於資源受限設備的應用場景,提供高效、低內存佔用的文本生成能力。
大型語言模型 Transformers 支持多種語言
M
MBZUAI
187
41
Mamba 3B Slimpj
Apache-2.0
基於Mamba架構的3B參數規模的語言模型,支持英文文本生成任務。
大型語言模型 Transformers 英語
M
Q-bert
56
3
Phi Hermes 1.3B
其他
基於Hermes數據集微調的Phi-1.5模型,主要用於文本生成任務
大型語言模型 Transformers 英語
P
teknium
45
44
Charllama 35M
Openrail
CharLLaMa-35M 是一個微型語言模型,採用LLaMa架構,具有逐字符分詞功能,適用於因BPE分詞導致任務表現不佳時的各類實驗場景。
大型語言模型 Transformers 其他
C
inkoziev
61
5
Llama2 Xs 460M Experimental
本系列倉庫開源復現了Meta AI的LLaMA和LLaMA 2大語言模型,但模型規模顯著縮小,其中llama1_s實驗版含18億參數,llama2_xs實驗版僅含4.6億參數。
大型語言模型 Transformers 英語
L
ahxt
145
13
Koalpaca KoRWKV 1.5B
Apache-2.0
基於KoRWKV-1.5B在KoAlpaca數據集v1.0上微調的韓文語言模型
大型語言模型 Transformers 韓語
K
beomi
1,941
7
Gpt2023
MIT
基於GPT-2架構的124M參數語言模型,在2.23B token的多樣化數據上微調,具備改進的文本生成能力
大型語言模型 Transformers 英語
G
crumb
136
18
Japanese Gpt Neox Small
MIT
基於GPT-NeoX架構的小型日語語言模型,支持文本生成任務
大型語言模型 Transformers 支持多種語言
J
rinna
838
15
Albert Base Japanese V1 With Japanese Tokenizer
MIT
這是一個經過日語預訓練的ALBERT模型,使用了BertJapaneseTokenizer作為分詞器,處理日語文本更加便捷。
大型語言模型 Transformers 日語
A
ken11
44
3
Xlm Roberta Base Uk
MIT
這是XLM-RoBERTa模型的縮小版本,專門針對烏克蘭語和部分英語進行了優化,參數數量從4.7億縮減至1.34億。
大型語言模型 Transformers 其他
X
ukr-models
78
12
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效推理,適用於多種自然語言處理任務。
大型語言模型 Transformers
M
nreimers
14.21k
1
Minilmv2 L6 H384 Distilled From RoBERTa Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效性能。
大型語言模型 Transformers
M
nreimers
73
6
Roformer Chinese Char Small
RoFormer是基於旋轉位置編碼(Rotary Position Embedding)增強的中文Transformer模型,適用於文本填充任務。
大型語言模型 中文
R
junnyu
24
0
Bert L12 H384 A6
基於BookCorpus數據集通過知識蒸餾技術預訓練的輕量化BERT模型,隱藏層維度縮減至384,採用6個注意力頭。
大型語言模型 Transformers
B
eli4s
16
2
Mminilmv2 L6 H384 Distilled From XLMR Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效性能。
大型語言模型 Transformers
M
nreimers
197
17
Distilbert Base Uncased Sparse 90 Unstructured Pruneofa
Apache-2.0
這是一個稀疏預訓練模型,通過一次性剪枝方法實現90%權重稀疏化,可針對多種語言任務進行微調。
大型語言模型 Transformers 英語
D
Intel
78
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase