Delta Pavonis Qwen 14B
Apache-2.0
基于千问2.5 14B模态架构设计的增强推理模型,优化通用推理与问答场景,支持128K上下文和8K输出
大型语言模型
Transformers

D
prithivMLmods
547
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14B是基于Qwen 2.5 14B模态架构设计的140亿参数模型,优化了通用推理和问答能力,在上下文理解、逻辑推理和多步骤问题解决方面表现优异。
大型语言模型
Transformers

T
prithivMLmods
21
2
SILMA Kashif 2B Instruct V1.0
SILMA Kashif 2B Instruct v1.0是专为阿拉伯语和英语RAG(检索增强生成)任务设计的开源模型,基于谷歌Gemma构建,具备实体提取和多领域处理能力。
大型语言模型
Transformers 支持多种语言

S
silma-ai
3,432
17
Llama3.1 Korean V1.1 Sft By Aidx
Apache-2.0
基于LlaMA3.1微调的韩语大语言模型,适配韩国文化,支持53个领域的韩语任务
大型语言模型
Safetensors 韩语
L
SEOKDONG
1,242
10
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基于Meta-Llama-3.1-8B-Instruct剪枝至1.4B参数规模,并采用LLM-Neo方法(结合LoRA与知识蒸馏)微调的高效语言模型。训练数据采样自BAAI/Infinity-Instruct的100万行数据。
大型语言模型
Transformers

L
yang31210999
39
2
Llama 3.1 Storm 8B
Llama-3.1-Storm-8B 是基于 Llama-3.1-8B-Instruct 开发的模型,旨在提升 80 亿参数模型类的对话和函数调用能力。
大型语言模型
Transformers 支持多种语言

L
akjindal53244
22.93k
176
Thespis Krangled 7b V2
基于多种数据集训练的对话模型,支持中文交互,适用于非商业场景
大型语言模型
Transformers

T
cgato
20
1
Polish Reranker Base Mse
Apache-2.0
这是一个基于均方误差(MSE)蒸馏方法训练的波兰语文本排序模型,训练数据集包含140万条查询和1000万份文档的文本对。
文本嵌入
Transformers 其他

P
sdadas
16
0
Polish Reranker Large Ranknet
Apache-2.0
这是一个采用RankNet损失函数训练的波兰文本排序模型,训练数据集包含140万条查询和1000万份文档组成的文本对。
文本嵌入
Transformers 其他

P
sdadas
337
2
Llama 160M Chat V1
Apache-2.0
这是一个160M参数的Llama聊天模型,基于JackFram/llama-160m微调而来,专注于文本生成任务。
大型语言模型
Transformers 英语

L
Felladrin
586
19
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98