# 多领域问答

Delta Pavonis Qwen 14B
Apache-2.0
基于千问2.5 14B模态架构设计的增强推理模型,优化通用推理与问答场景,支持128K上下文和8K输出
大型语言模型 Transformers
D
prithivMLmods
547
3
Theta Lyrae Qwen 14B
Apache-2.0
Theta-Lyrae-Qwen-14B是基于Qwen 2.5 14B模态架构设计的140亿参数模型,优化了通用推理和问答能力,在上下文理解、逻辑推理和多步骤问题解决方面表现优异。
大型语言模型 Transformers
T
prithivMLmods
21
2
SILMA Kashif 2B Instruct V1.0
SILMA Kashif 2B Instruct v1.0是专为阿拉伯语和英语RAG(检索增强生成)任务设计的开源模型,基于谷歌Gemma构建,具备实体提取和多领域处理能力。
大型语言模型 Transformers 支持多种语言
S
silma-ai
3,432
17
Llama3.1 Korean V1.1 Sft By Aidx
Apache-2.0
基于LlaMA3.1微调的韩语大语言模型,适配韩国文化,支持53个领域的韩语任务
大型语言模型 Safetensors 韩语
L
SEOKDONG
1,242
10
Llama3.1 1B Neo BAAI 1000k
Apache-2.0
Llama3.1-Neo-1B-100w是基于Meta-Llama-3.1-8B-Instruct剪枝至1.4B参数规模,并采用LLM-Neo方法(结合LoRA与知识蒸馏)微调的高效语言模型。训练数据采样自BAAI/Infinity-Instruct的100万行数据。
大型语言模型 Transformers
L
yang31210999
39
2
Llama 3.1 Storm 8B
Llama-3.1-Storm-8B 是基于 Llama-3.1-8B-Instruct 开发的模型,旨在提升 80 亿参数模型类的对话和函数调用能力。
大型语言模型 Transformers 支持多种语言
L
akjindal53244
22.93k
176
Thespis Krangled 7b V2
基于多种数据集训练的对话模型,支持中文交互,适用于非商业场景
大型语言模型 Transformers
T
cgato
20
1
Polish Reranker Base Mse
Apache-2.0
这是一个基于均方误差(MSE)蒸馏方法训练的波兰语文本排序模型,训练数据集包含140万条查询和1000万份文档的文本对。
文本嵌入 Transformers 其他
P
sdadas
16
0
Polish Reranker Large Ranknet
Apache-2.0
这是一个采用RankNet损失函数训练的波兰文本排序模型,训练数据集包含140万条查询和1000万份文档组成的文本对。
文本嵌入 Transformers 其他
P
sdadas
337
2
Llama 160M Chat V1
Apache-2.0
这是一个160M参数的Llama聊天模型,基于JackFram/llama-160m微调而来,专注于文本生成任务。
大型语言模型 Transformers 英语
L
Felladrin
586
19
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase