Llama 3.1 Nemotron Nano 4B V1.1 GGUF
其他
由英伟达发布的4B参数规模大语言模型,支持128k tokens上下文长度,专为推理、对话及RAG等任务优化
大型语言模型 英语
L
lmstudio-community
588
1
Japanese Reranker Tiny V2
MIT
这是一个非常小巧且快速的日语重排序模型,适用于提升RAG系统的精度,在CPU或边缘设备上也能高效运行。
文本嵌入 日语
J
hotchpotch
339
3
Isa 03 Mini 3B Hybrid Preview
Apache-2.0
神经湖iSA-03迷你3B是由神经湖科技研发的先进AI模型,融合了传统大语言模型的直接响应能力与自动多步推理功能,支持256K token的超长上下文处理。
大型语言模型
Transformers

I
NeuraLakeAi
1,467
3
Llama PLLuM 8B Chat
PLLuM 是一个专注于波兰语及其他斯拉夫/波罗的海语言的大型语言模型家族,同时融入英语数据以实现更广泛的泛化能力。
大型语言模型
Transformers 其他

L
CYFRAGOVPL
2,618
3
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7B是一款开源医疗大语言模型,在多项医疗任务中达到最先进性能。基于Qwen2.5-7B架构微调,训练数据涵盖18亿token的多样化医疗任务。
大型语言模型
Transformers 英语

Q
HPAI-BSC
631
5
Rigochat 7b V2
其他
RigoChat-7b-v2是基于Qwen-2.5的西班牙语优化模型,通过DPO微调提升性能,专注于西班牙语查询的准确响应。
大型语言模型
Transformers 西班牙语

R
IIC
776
19
Meno Tiny 0.1
Apache-2.0
基于Qwen2.5-1.5B-Instruct微调的俄语指令优化模型,15亿参数,支持俄英双语,擅长RAG流程中的文本问答
大型语言模型
Transformers 支持多种语言

M
bond005
764
10
Wangchanx Legal ThaiCCL Retriever
MIT
基于bge-m3模型微调的泰语法律文本检索器,专注于公司与商业法领域
文本嵌入
PyTorch 其他
W
airesearch
367
3
Nemotron Mini 4B Instruct
其他
Nemotron-Mini-4B-Instruct是英伟达开发的专为角色扮演、检索增强生成和函数调用优化的响应生成模型,基于Minitron-4B-Base微调,支持4096个token的上下文长度。
大型语言模型
Transformers 英语

N
nvidia
674
162
Tinyllama Cinder Agent V1
MIT
基于TinyLlama微调的轻量级代理模型,专注于工具调用、RAG和通用助手功能
大型语言模型
Transformers

T
Josephgflowers
63
2
Cymist2 V01 SFT
Apache-2.0
Cymist2-v0.1是由Cypien AI团队开发的先进语言模型,专为土耳其语和英语的文本生成任务优化,支持检索增强生成(RAG)和监督微调(SFT)。
大型语言模型
Transformers 支持多种语言

C
cypienai
2,729
2
Llama 3 SauerkrautLM 8b Instruct
其他
Llama-3-SauerkrautLM-8b-Instruct 是由 VAGO Solutions 和 Hyperspace.ai 联合打造的基于 Meta-Llama-3-8B-Instruct 的改良版本,通过 DPO 对齐优化,支持德语和英语。
大型语言模型
Transformers 支持多种语言

L
VAGOsolutions
20.01k
54
CAG Mistral 7b
MIT
基于Mistral-7B微调的70亿参数可信度感知生成模型,具备理解并运用上下文可信度进行内容生成的能力。
大型语言模型
Transformers 英语

C
ruotong-pan
37
1
E5 Base Mlqa Finetuned Arabic For Rag
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维稠密向量空间,适用于聚类或语义搜索等任务。
文本嵌入
E
OmarAlsaabi
92
5
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98