Thinkygemma 4b
基於Google Gemma-3-4b-pt微調的偽推理專家模型,專為結構化推理/偽誘導推理設計
大型語言模型
Transformers

T
xsanskarx
19
1
T3Q Qwen2.5 14b V1.0 E3
Apache-2.0
基於Qwen/Qwen2.5-14B-Instruct-1M模型進行後訓練的版本,採用LoRA-8-4-0.0001-cosine-32-16配置,訓練數據為train_data_v1.0。
大型語言模型
Transformers 支持多種語言

T
JungZoona
1,557
25
Wiroai Finance Qwen 1.5B
Apache-2.0
基於Qwen架構的金融領域專用語言模型,通過50萬+金融指令微調
大型語言模型
Transformers

W
WiroAI
886
16
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基於Meta-Llama-3.1-8B-Instruct剪枝至1.4B參數規模,並採用LLM-Neo方法(結合LoRA與知識蒸餾)微調的高效語言模型。訓練數據採樣自BAAI/Infinity-Instruct的100萬行數據。
大型語言模型
Transformers

L
yang31210999
39
2
Llama 3 Gutenberg 8B
其他
基於Llama-3-8b的微調模型,使用Gutenberg DPO數據集進行優化,適用於文本生成任務。
大型語言模型
Transformers

L
nbeerbower
18
9
Qra 1b Dolly Instruction 0.1
這是一個基於Qra-1b模型在波蘭語指令數據集上微調的問答模型,主要用於回答用戶提出的問題。
大型語言模型
Transformers 其他

Q
nie3e
16
2
Indic Gemma 2b Finetuned Sft Navarasa 2.0
其他
基於Gemma-2b微調的多語言指令模型,支持15種印度語言及英語
大型語言模型
Transformers 支持多種語言

I
Telugu-LLM-Labs
166
24
Indic Gemma 7b Finetuned Sft Navarasa 2.0
其他
基於Gemma-7b模型,在15種印度語言和英語的指令數據集上進行LoRA微調的多語言文本生成模型
大型語言模型
Transformers 支持多種語言

I
Telugu-LLM-Labs
400
19
Gemma2b Turkish Instruction
基於Gemma-2b模型針對土耳其語指令-響應對進行微調的文本生成模型,支持約75k訓練數據規模
大型語言模型
Transformers 其他

G
erythropygia
136
2
Zhilu 13B Instruct
Apache-2.0
ZhiLu是基於中文Alpaca2-13B二次開發的金融大語言模型,通過海量中英文語料增量預訓練與高質量指令數據對齊實現能力躍升,重點強化金融領域專業表現。
大型語言模型
Transformers

Z
SYSU-MUCFC-FinTech-Research-Center
26
3
Camel Platypus2 70B
Camel-Platypus2-70B 是由 Platypus2-70B 和 qCammel-70-x 合併而成的大型語言模型,基於 LLaMA 2 架構,專注於 STEM 和邏輯推理任務。
大型語言模型
Transformers 英語

C
garage-bAInd
114
15
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98