Zeta 2
MIT
Zeta 2是一個約4.6億參數的小型語言模型(SLM),在消費級電腦上精心打造,支持多種語言。
大型語言模型 支持多種語言
Z
Zeta-LLM
26
3
Minillm 0.2B WithWudao
Apache-2.0
MiniLLM是基於bert4torch框架開發的輕量級中文語言模型,覆蓋預訓練至指令微調全流程,具備基礎對話能力
大型語言模型
Transformers

M
Tongjilibo
127
2
Smollm2 135M Eagle
Apache-2.0
基於SmolLM2-135M微調的俄英雙語輕量級語言模型,增強俄語處理能力但存在明顯侷限
大型語言模型 支持多種語言
S
nyuuzyou
50
3
Qwen2.5 1.5B Instruct
Apache-2.0
專為Gensyn RL Swarm設計的1.5B參數指令微調模型,支持通過點對點強化學習進行本地微調
大型語言模型
Transformers 英語

Q
Gensyn
2.1M
4
Latent Recurrent Depth Lm
MIT
一種實驗性文本生成架構,通過迭代的潛在處理捕獲更深層次的上下文信息
大型語言模型
Transformers 英語

L
codewithdark
38
1
Llama 3.1 0x Mini
0x Mini是由Ozone AI開發的輕量級語言模型,基於Llama-3.1架構優化,提供高效的文本生成能力
大型語言模型
Transformers

L
ozone-research
21
5
Miniplm Qwen 200M
Apache-2.0
基於Qwen架構的2億參數模型,採用MiniPLM知識蒸餾框架從零開始預訓練
大型語言模型
Transformers 英語

M
MiniLLM
203
5
Llammlein 1B
其他
這是一個基於Tinyllama代碼框架、使用RedPajama V2德語語料從頭訓練的德語Tinyllama 1B語言模型。
大型語言模型
Transformers 德語

L
LSX-UniWue
304
14
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
一個採用混合量化技術的文本生成模型,輸出和嵌入張量使用f16格式,其餘張量採用q5_k或q6_k量化,體積小於標準q8_0量化格式且性能與純f16版本持平。
大型語言模型 英語
M
ZeroWw
98
17
Smollm 135M 4bit
Apache-2.0
這是一個4位量化的135M參數小型語言模型,適用於資源受限環境下的文本生成任務。
大型語言模型
Transformers 英語

S
mlx-community
312
1
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-Chat是基於MobiLlama-1B微調的指令跟隨模型,專為資源受限設備設計,強調高效、低內存佔用和快速響應。
大型語言模型
Transformers 英語

M
MBZUAI
44
25
Mobillama 05B
MIT
MobiLlama-05B是一款擁有5億參數的小型語言模型(SLM),專注於資源受限設備的應用場景,提供高效、低內存佔用的文本生成能力。
大型語言模型
Transformers 支持多種語言

M
MBZUAI
187
41
Mamba 3B Slimpj
Apache-2.0
基於Mamba架構的3B參數規模的語言模型,支持英文文本生成任務。
大型語言模型
Transformers 英語

M
Q-bert
56
3
Phi Hermes 1.3B
其他
基於Hermes數據集微調的Phi-1.5模型,主要用於文本生成任務
大型語言模型
Transformers 英語

P
teknium
45
44
Charllama 35M
Openrail
CharLLaMa-35M 是一個微型語言模型,採用LLaMa架構,具有逐字符分詞功能,適用於因BPE分詞導致任務表現不佳時的各類實驗場景。
大型語言模型
Transformers 其他

C
inkoziev
61
5
Llama2 Xs 460M Experimental
本系列倉庫開源復現了Meta AI的LLaMA和LLaMA 2大語言模型,但模型規模顯著縮小,其中llama1_s實驗版含18億參數,llama2_xs實驗版僅含4.6億參數。
大型語言模型
Transformers 英語

L
ahxt
145
13
Koalpaca KoRWKV 1.5B
Apache-2.0
基於KoRWKV-1.5B在KoAlpaca數據集v1.0上微調的韓文語言模型
大型語言模型
Transformers 韓語

K
beomi
1,941
7
Gpt2023
MIT
基於GPT-2架構的124M參數語言模型,在2.23B token的多樣化數據上微調,具備改進的文本生成能力
大型語言模型
Transformers 英語

G
crumb
136
18
Japanese Gpt Neox Small
MIT
基於GPT-NeoX架構的小型日語語言模型,支持文本生成任務
大型語言模型
Transformers 支持多種語言

J
rinna
838
15
Albert Base Japanese V1 With Japanese Tokenizer
MIT
這是一個經過日語預訓練的ALBERT模型,使用了BertJapaneseTokenizer作為分詞器,處理日語文本更加便捷。
大型語言模型
Transformers 日語

A
ken11
44
3
Xlm Roberta Base Uk
MIT
這是XLM-RoBERTa模型的縮小版本,專門針對烏克蘭語和部分英語進行了優化,參數數量從4.7億縮減至1.34億。
大型語言模型
Transformers 其他

X
ukr-models
78
12
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效推理,適用於多種自然語言處理任務。
大型語言模型
Transformers

M
nreimers
14.21k
1
Minilmv2 L6 H384 Distilled From RoBERTa Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效性能。
大型語言模型
Transformers

M
nreimers
73
6
Roformer Chinese Char Small
RoFormer是基於旋轉位置編碼(Rotary Position Embedding)增強的中文Transformer模型,適用於文本填充任務。
大型語言模型 中文
R
junnyu
24
0
Bert L12 H384 A6
基於BookCorpus數據集通過知識蒸餾技術預訓練的輕量化BERT模型,隱藏層維度縮減至384,採用6個注意力頭。
大型語言模型
Transformers

B
eli4s
16
2
Mminilmv2 L6 H384 Distilled From XLMR Large
MiniLMv2 是微軟推出的輕量級語言表示模型,通過知識蒸餾技術實現高效性能。
大型語言模型
Transformers

M
nreimers
197
17
Distilbert Base Uncased Sparse 90 Unstructured Pruneofa
Apache-2.0
這是一個稀疏預訓練模型,通過一次性剪枝方法實現90%權重稀疏化,可針對多種語言任務進行微調。
大型語言模型
Transformers 英語

D
Intel
78
2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98