🚀 Qwentile Λ 2.5 32B Instruct
Qwentile Λ 2.5 32B Instruct是一个基于多个模型进行 归一化去噪傅里叶插值 的模型,能够在对话、文本生成等任务中表现出色,为用户提供高质量的交互体验。
🚀 快速开始
可以通过以下链接获取相关模型文件:
GGUF iMat

📚 详细文档
模型构成
Qwentile Λ 2.5 32B Instruct是以下模型的 归一化去噪傅里叶插值 结果:
output_base_model: "maldv/Qwentile2.5-32B-Instruct"
output_dtype: "bfloat16"
finetune_merge:
- { "model": "a-m-team/AM-Thinking-v1", "base": "Qwen/Qwen2.5-32B", "alpha": 0.9 }
- { "model": "nvidia/OpenCodeReasoning-Nemotron-32B", "base": "Qwen/Qwen2.5-32B", "alpha": 0.8, "is_input": true}
- { "model": "maldv/Loqwqtus2.5-32B-Instruct", "base": "Qwen/Qwen2.5-32B", "alpha": 0.9 }
- { "model": "trashpanda-org/QwQ-32B-Snowdrop-v0", "base": "Qwen/Qwen2.5-32B", "alpha": 0.9 }
- { "model": "ArliAI/QwQ-32B-ArliAI-RpR-v3", "base": "Qwen/Qwen2.5-32B", "alpha": 0.8 }
也就是说,所有这些模型在信号空间中进行扭曲和插值,然后再叠加到基础模型(在这种情况下是Qwentile2.5 - 32B - Instruct)之上;不过使用了Nemotron OpenCodeReasoning的输入层。
模型介绍
- 这是什么模型?
这是我一系列Qwen 2.5合并模型中的最新成果。最近发布了一些非常优秀的模型,所以我以Qwentile为基础将它们融合进来。该模型应该具备卓越的思考能力,甚至可能拥有一定的代码处理能力。我对QReasoner2.5 - 32B - Instruct在高级推理方面的表现很满意,但我认为这个新模型会更胜一筹。
- 这是一个 模型吗?
奇怪的是,鉴于它的模型谱系,我原本以为它会是一个专注于思考的模型,但实际上它几乎无缝地将思考能力与创造性输出融合在一起。在我最初的测试中,这种结合展现出了强大的能力。
📄 许可证
本项目采用Apache-2.0许可证。
📚 引用
如果您觉得我们的工作有帮助,请随意引用我们的模型:
@misc{qwentile-labmda-2.5-32b-instruct,
title = {Qwentile Λ 2.5 32B Instruct},
url = {https://huggingface.co/maldv/QwentileLambda2.5-32B-Instruct},
author = {Praxis Maldevide},
month = {May},
year = {2025}
}
📋 模型信息
属性 |
详情 |
库名称 |
transformers |
语言 |
en |
标签 |
chat、conversational |
基础模型 |
maldv/Qwentile2.5-32B-Instruct、a-m-team/AM-Thinking-v1、nvidia/OpenCodeReasoning-Nemotron-32B、maldv/Loqwqtus2.5-32B-Instruct、trashpanda-org/QwQ-32B-Snowdrop-v0、ArliAI/QwQ-32B-ArliAI-RpR-v3 |
管道标签 |
text-generation、conversational、chat |