Delta Pavonis Qwen 14B
Apache-2.0
基於千問2.5 14B模態架構設計的增強推理模型,優化通用推理與問答場景,支持128K上下文和8K輸出
大型語言模型
Transformers

D
prithivMLmods
547
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14B是基於Qwen 2.5 14B模態架構設計的140億參數模型,優化了通用推理和問答能力,在上下文理解、邏輯推理和多步驟問題解決方面表現優異。
大型語言模型
Transformers

T
prithivMLmods
21
2
SILMA Kashif 2B Instruct V1.0
SILMA Kashif 2B Instruct v1.0是專為阿拉伯語和英語RAG(檢索增強生成)任務設計的開源模型,基於谷歌Gemma構建,具備實體提取和多領域處理能力。
大型語言模型
Transformers 支持多種語言

S
silma-ai
3,432
17
Llama3.1 Korean V1.1 Sft By Aidx
Apache-2.0
基於LlaMA3.1微調的韓語大語言模型,適配韓國文化,支持53個領域的韓語任務
大型語言模型
Safetensors 韓語
L
SEOKDONG
1,242
10
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基於Meta-Llama-3.1-8B-Instruct剪枝至1.4B參數規模,並採用LLM-Neo方法(結合LoRA與知識蒸餾)微調的高效語言模型。訓練數據採樣自BAAI/Infinity-Instruct的100萬行數據。
大型語言模型
Transformers

L
yang31210999
39
2
Llama 3.1 Storm 8B
Llama-3.1-Storm-8B 是基於 Llama-3.1-8B-Instruct 開發的模型,旨在提升 80 億參數模型類的對話和函數調用能力。
大型語言模型
Transformers 支持多種語言

L
akjindal53244
22.93k
176
Thespis Krangled 7b V2
基於多種數據集訓練的對話模型,支持中文交互,適用於非商業場景
大型語言模型
Transformers

T
cgato
20
1
Polish Reranker Base Mse
Apache-2.0
這是一個基於均方誤差(MSE)蒸餾方法訓練的波蘭語文本排序模型,訓練數據集包含140萬條查詢和1000萬份文檔的文本對。
文本嵌入
Transformers 其他

P
sdadas
16
0
Polish Reranker Large Ranknet
Apache-2.0
這是一個採用RankNet損失函數訓練的波蘭文本排序模型,訓練數據集包含140萬條查詢和1000萬份文檔組成的文本對。
文本嵌入
Transformers 其他

P
sdadas
337
2
Llama 160M Chat V1
Apache-2.0
這是一個160M參數的Llama聊天模型,基於JackFram/llama-160m微調而來,專注於文本生成任務。
大型語言模型
Transformers 英語

L
Felladrin
586
19
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98