Llama 3.1 Nemotron Nano 4B V1.1 GGUF
其他
由英偉達發佈的4B參數規模大語言模型,支持128k tokens上下文長度,專為推理、對話及RAG等任務優化
大型語言模型 英語
L
lmstudio-community
588
1
Japanese Reranker Tiny V2
MIT
這是一個非常小巧且快速的日語重排序模型,適用於提升RAG系統的精度,在CPU或邊緣設備上也能高效運行。
文本嵌入 日語
J
hotchpotch
339
3
Isa 03 Mini 3B Hybrid Preview
Apache-2.0
神經湖iSA-03迷你3B是由神經湖科技研發的先進AI模型,融合了傳統大語言模型的直接響應能力與自動多步推理功能,支持256K token的超長上下文處理。
大型語言模型
Transformers

I
NeuraLakeAi
1,467
3
Llama PLLuM 8B Chat
PLLuM 是一個專注于波蘭語及其他斯拉夫/波羅的海語言的大型語言模型家族,同時融入英語數據以實現更廣泛的泛化能力。
大型語言模型
Transformers 其他

L
CYFRAGOVPL
2,618
3
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7B是一款開源醫療大語言模型,在多項醫療任務中達到最先進性能。基於Qwen2.5-7B架構微調,訓練數據涵蓋18億token的多樣化醫療任務。
大型語言模型
Transformers 英語

Q
HPAI-BSC
631
5
Rigochat 7b V2
其他
RigoChat-7b-v2是基於Qwen-2.5的西班牙語優化模型,通過DPO微調提升性能,專注於西班牙語查詢的準確響應。
大型語言模型
Transformers 西班牙語

R
IIC
776
19
Meno Tiny 0.1
Apache-2.0
基於Qwen2.5-1.5B-Instruct微調的俄語指令優化模型,15億參數,支持俄英雙語,擅長RAG流程中的文本問答
大型語言模型
Transformers 支持多種語言

M
bond005
764
10
Wangchanx Legal ThaiCCL Retriever
MIT
基於bge-m3模型微調的泰語法律文本檢索器,專注於公司與商業法領域
文本嵌入
PyTorch 其他
W
airesearch
367
3
Nemotron Mini 4B Instruct
其他
Nemotron-Mini-4B-Instruct是英偉達開發的專為角色扮演、檢索增強生成和函數調用優化的響應生成模型,基於Minitron-4B-Base微調,支持4096個token的上下文長度。
大型語言模型
Transformers 英語

N
nvidia
674
162
Tinyllama Cinder Agent V1
MIT
基於TinyLlama微調的輕量級代理模型,專注於工具調用、RAG和通用助手功能
大型語言模型
Transformers

T
Josephgflowers
63
2
Cymist2 V01 SFT
Apache-2.0
Cymist2-v0.1是由Cypien AI團隊開發的先進語言模型,專為土耳其語和英語的文本生成任務優化,支持檢索增強生成(RAG)和監督微調(SFT)。
大型語言模型
Transformers 支持多種語言

C
cypienai
2,729
2
Llama 3 SauerkrautLM 8b Instruct
其他
Llama-3-SauerkrautLM-8b-Instruct 是由 VAGO Solutions 和 Hyperspace.ai 聯合打造的基於 Meta-Llama-3-8B-Instruct 的改良版本,通過 DPO 對齊優化,支持德語和英語。
大型語言模型
Transformers 支持多種語言

L
VAGOsolutions
20.01k
54
CAG Mistral 7b
MIT
基於Mistral-7B微調的70億參數可信度感知生成模型,具備理解並運用上下文可信度進行內容生成的能力。
大型語言模型
Transformers 英語

C
ruotong-pan
37
1
E5 Base Mlqa Finetuned Arabic For Rag
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維稠密向量空間,適用於聚類或語義搜索等任務。
文本嵌入
E
OmarAlsaabi
92
5
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98