🚀 Qwentile Λ 2.5 32B Instruct
Qwentile Λ 2.5 32B Instruct是一個基於多個模型進行 歸一化去噪傅里葉插值 的模型,能夠在對話、文本生成等任務中表現出色,為用戶提供高質量的交互體驗。
🚀 快速開始
可以通過以下鏈接獲取相關模型文件:
GGUF iMat

📚 詳細文檔
模型構成
Qwentile Λ 2.5 32B Instruct是以下模型的 歸一化去噪傅里葉插值 結果:
output_base_model: "maldv/Qwentile2.5-32B-Instruct"
output_dtype: "bfloat16"
finetune_merge:
- { "model": "a-m-team/AM-Thinking-v1", "base": "Qwen/Qwen2.5-32B", "alpha": 0.9 }
- { "model": "nvidia/OpenCodeReasoning-Nemotron-32B", "base": "Qwen/Qwen2.5-32B", "alpha": 0.8, "is_input": true}
- { "model": "maldv/Loqwqtus2.5-32B-Instruct", "base": "Qwen/Qwen2.5-32B", "alpha": 0.9 }
- { "model": "trashpanda-org/QwQ-32B-Snowdrop-v0", "base": "Qwen/Qwen2.5-32B", "alpha": 0.9 }
- { "model": "ArliAI/QwQ-32B-ArliAI-RpR-v3", "base": "Qwen/Qwen2.5-32B", "alpha": 0.8 }
也就是說,所有這些模型在信號空間中進行扭曲和插值,然後再疊加到基礎模型(在這種情況下是Qwentile2.5 - 32B - Instruct)之上;不過使用了Nemotron OpenCodeReasoning的輸入層。
模型介紹
- 這是什麼模型?
這是我一系列Qwen 2.5合併模型中的最新成果。最近發佈了一些非常優秀的模型,所以我以Qwentile為基礎將它們融合進來。該模型應該具備卓越的思考能力,甚至可能擁有一定的代碼處理能力。我對QReasoner2.5 - 32B - Instruct在高級推理方面的表現很滿意,但我認為這個新模型會更勝一籌。
- 這是一個 模型嗎?
奇怪的是,鑑於它的模型譜系,我原本以為它會是一個專注于思考的模型,但實際上它幾乎無縫地將思考能力與創造性輸出融合在一起。在我最初的測試中,這種結合展現出了強大的能力。
📄 許可證
本項目採用Apache-2.0許可證。
📚 引用
如果您覺得我們的工作有幫助,請隨意引用我們的模型:
@misc{qwentile-labmda-2.5-32b-instruct,
title = {Qwentile Λ 2.5 32B Instruct},
url = {https://huggingface.co/maldv/QwentileLambda2.5-32B-Instruct},
author = {Praxis Maldevide},
month = {May},
year = {2025}
}
📋 模型信息
屬性 |
詳情 |
庫名稱 |
transformers |
語言 |
en |
標籤 |
chat、conversational |
基礎模型 |
maldv/Qwentile2.5-32B-Instruct、a-m-team/AM-Thinking-v1、nvidia/OpenCodeReasoning-Nemotron-32B、maldv/Loqwqtus2.5-32B-Instruct、trashpanda-org/QwQ-32B-Snowdrop-v0、ArliAI/QwQ-32B-ArliAI-RpR-v3 |
管道標籤 |
text-generation、conversational、chat |