Deepseek R1 0528 Bf16
MIT
DeepSeek-R1-0528是DeepSeek R1模型的小版本升级,通过增加计算资源和算法优化显著提升了推理能力,在数学、编程和通用逻辑等多个基准评估中表现出色。
大型语言模型
Transformers

D
cognitivecomputations
129
1
Deepseek R1 0528 Qwen3 8B GPTQ Int4 Int8Mix
MIT
基于DeepSeek-R1-0528-Qwen3-8B开发的量化版本模型,在推理能力、减少幻觉率等方面有显著提升,适用于多种自然语言处理任务。
大型语言模型
Transformers

D
QuantTrio
154
1
Yixin Distill Qwen 72B 4.5bpw H6 Exl2
Apache-2.0
基于Qwen2.5-72B通过强化学习蒸馏的高性能数学推理与通用知识处理模型,在数学推理和通用知识任务中表现优异。
大型语言模型 支持多种语言
Y
LoneStriker
37
3
Hunyuan 7B Pretrain
其他
混元7B是腾讯开源的中英文双语大语言模型,采用更优的数据配比和训练方式,性能强劲,是目前最强的中文7B Dense模型之一。
大型语言模型
Transformers 英语

H
tencent
56
8
Kunoichi DPO V2 7B GGUF Imatrix
基于Mistral架构的7B参数大语言模型,采用DPO(直接偏好优化)训练,在多项基准测试中表现优异
大型语言模型
K
Lewdiculous
3,705
39
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98