# 小參數高效

Qwen2.5 1.5B S1k 1.1
該模型是基於Qwen/Qwen2.5-1.5B-Instruct微調而來的文本生成模型,使用TRL進行訓練,為文本生成任務提供了強大的支持。
大型語言模型 Transformers
Q
rvindra
1,312
1
Flarenew
MIT
LaMini-Flan-T5-783M 是一個基於T5架構的輕量級文本生成模型,支持英語、俄語和烏克蘭語,適用於多種自然語言處理任務。
大型語言模型 Transformers 支持多種語言
F
HaveAI
718
1
Openrs3 GRPO Ja
OpenRS3-GRPO-ja是基於SakanaAI/TinySwallow-1.5B-Instruct模型在日語數學指令數據集上微調的版本,採用GRPO方法訓練,專注於數學推理任務。
大型語言模型 Transformers
O
EQUES
25
3
Flower Calvin Abc
MIT
FlowerVLA是一個針對機器人操作任務預訓練的視覺-語言-動作模型,基於CALVIN ABC數據集訓練,採用高效的流匹配架構,僅約10億參數。
多模態融合 英語
F
mbreuss
20
3
Teacher Persona GGUF
Qwen2-1.5B-Instruct 是阿里雲推出的一個15億參數規模的指令微調大語言模型,適用於問答和對話任務。
大型語言模型
T
RyZhangHason
24
1
Reasonablellama3 3B Jr
基於LLaMA-3B構建的微調推理模型,增強推理能力,支持多語言處理
大型語言模型 支持多種語言
R
adeelahmad
1,173
6
Kanana Nano 2.1b Base
Kanana是由Kakao開發的雙語大語言模型系列,在韓語任務上表現卓越,同時在英語任務上保持競爭力。2.1b版本是該系列的輕量級基礎模型。
大型語言模型 Transformers 支持多種語言
K
kakaocorp
4,039
33
Cuckoo C4
MIT
布穀鳥是一個小型(3億參數)信息抽取模型,通過模仿大語言模型的下一詞預測範式進行高效信息抽取
大型語言模型 Transformers
C
KomeijiForce
15
1
Llave 0.5B
Apache-2.0
LLaVE是基於LLaVA-OneVision-0.5B模型的多模態嵌入模型,參數規模為0.5B,能夠對文本、圖像、多圖像和視頻進行嵌入。
多模態融合 Transformers 英語
L
zhibinlan
2,897
7
Lava Phi
MIT
基於微軟Phi-1.5架構的視覺語言模型,結合CLIP實現圖像處理能力
圖像生成文本 Transformers 支持多種語言
L
sagar007
17
0
Prem 1B SQL
Apache-2.0
Prem-1B-SQL是Prem AI開發的10億參數文本轉SQL模型,專為本地化部署設計,支持低配GPU和CPU設備運行。
大型語言模型 Safetensors 英語
P
premai-io
521
35
Phi 3.5 Mini ITA
MIT
基於Microsoft/Phi-3.5-mini-instruct微調的版本,優化了意大利語性能的小型但強大的語言模型
大型語言模型 Transformers 支持多種語言
P
anakin87
8,495
13
Gemma 2 2b It Chinese Kyara Dpo
Kyara是一個通過知識檢索增強的語言模型微調項目,專注於提升模型在繁體中文等資源較少語言上的表現。
大型語言模型 Transformers 支持多種語言
G
zake7749
2,334
13
Llava Phi 3 Mini Hf
基於Phi-3-mini-4k-instruct和CLIP-ViT-Large-patch14-336微調的LLaVA模型,支持圖像轉文本任務
圖像生成文本 Transformers
L
xtuner
2,322
49
Phi 2 Sft Ultrachat Full
MIT
基於microsoft/phi-2在ultrachat_200k數據集上微調的大語言模型,適用於對話生成任務。
大型語言模型 Transformers 其他
P
lole25
68
2
EEVE Korean Instruct 2.8B V1.0
Apache-2.0
基於EEVE-Korean-2.8B-v1.0微調的韓語指令模型,採用DPO優化訓練
大型語言模型 Transformers 其他
E
yanolja
2,197
24
Open Llama 3b V2 Wizard Evol Instuct V2 196k AWQ
Apache-2.0
這是一個基於Open Llama 3B V2架構的模型,使用WizardLM_evol_instruct_V2_196k數據集訓練而成,適用於指令跟隨任務。
大型語言模型 Transformers 英語
O
TheBloke
64
1
Cappy Large
Apache-2.0
Cappy是一款預訓練的小型評分器,旨在提升多任務大語言模型(LLM)的性能與效率。該模型接收指令和候選響應作為輸入,輸出0到1之間的評分,表示響應相對於指令的預估正確程度。
大型語言模型
C
btan2
72
21
Tinyllama 110M
MIT
這是一個基於TinyStories數據集訓練的1.1億參數Llama 2架構模型,適用於輕量級文本生成任務。
大型語言模型 Transformers
T
nickypro
1,472
5
Phi 1
MIT
Phi-1是一個13億參數的Transformer模型,專為Python基礎編程設計,在HumanEval基準測試中準確率超過50%
大型語言模型 Transformers 支持多種語言
P
microsoft
7,907
211
Open Cabrita3b GGUF
Apache-2.0
Open Cabrita 3B 是一個針對葡萄牙語優化的開源大語言模型,基於LLaMA架構,旨在縮小外語與英語模型之間的性能差距。
大型語言模型 其他
O
lucianosb
352
6
Tiny Starcoder Py
Openrail
這是一個擁有1.64億參數的Python代碼生成模型,基於StarCoder架構,專門針對Python代碼生成任務進行了優化。
大型語言模型 Transformers
T
bigcode
1,886
74
Lamini T5 61M
LaMini-T5-61M是基於T5-small架構,在LaMini-instruction數據集上微調的指令跟隨模型,參數規模為61M。
大型語言模型 Transformers 英語
L
MBZUAI
1,287
18
Norbert3 Xs
Apache-2.0
NorBERT 3 xs 是一個針對挪威語優化的BERT模型,屬於新一代NorBERT語言模型系列中的最小版本,參數量為15M。
大型語言模型 Transformers 其他
N
ltg
228
4
Gpt2
基於因果語言建模目標預訓練的印尼語生成模型,使用Flax框架訓練
大型語言模型 其他
G
indonesian-nlp
130
11
Gpt2 Small Indonesian
基於因果語言建模目標預訓練的印尼語生成模型,使用Flax框架在TPUv3-8上訓練
大型語言模型 其他
G
flax-community
290
5
Mt5 Multitask Qa Qg Turkish
Apache-2.0
這是一個基於mT5-small模型的多任務系統,專門針對土耳其語設計,能夠執行答案提取、問題生成和問答三項任務。
問答系統 其他
M
ozcangundes
114
9
Klue Roberta Small Nli Sts
這是一個基於KLUE-RoBERTa-small的韓語句子轉換器模型,專門用於句子相似度計算和自然語言推理任務。
文本嵌入 Transformers 韓語
K
ddobokki
141
4
Gpt Neo 125M Code Search Py
基於GPT-Neo-125M微調的Python代碼自動補全模型,專注於方法補全任務
大型語言模型
G
flax-community
17
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase