Q

Qwen2.5 MOE 2X1.5B DeepSeek Uncensored Censored 4B Gguf

由DavidAU開發
這是一個Qwen2.5 MOE(專家混合)模型,由兩個Qwen 2.5 DeepSeek(審查版/普通版和無審查版)1.5B模型組成,形成一個4B模型,其中無審查版本的DeepSeek Qwen 2.5 1.5B主導模型行為。
下載量 678
發布時間 : 3/4/2025

模型概述

該模型具備兩倍於DeepSeek Distill的推理/思考能力,並在其規模下表現出卓越的性能。適用於文本生成、問題解決、故事創作等多種任務。

模型特點

專家混合架構
由兩個1.5B模型組成,形成4B模型,具備更強的推理和思考能力。
無審查
無審查版本的DeepSeek Qwen 2.5 1.5B主導模型行為,適用於更廣泛的用例。
128k上下文長度
支持長上下文處理,適合複雜任務和長篇內容生成。
數學/邏輯問題解決
基於Qwen的1.5B數學模型,更偏向數學/邏輯問題解決,科學化。

模型能力

文本生成
問題解決
頭腦風暴
解謎
故事生成
情節生成
講故事
虛構故事創作
寫作
小說創作

使用案例

創意寫作
故事生成
生成虛構故事或情節,如《星際迷航》劇集情節構思。
生成六個涉及時間旅行的故事情節。
角色扮演遊戲描述
為遊戲場景生成描述性文本,如洞穴中的哥布林爭吵場景。
生成與場景相關的創意隱喻描述。
問題解決
技術方案生成
解釋利用夜間輻射冷卻技術降低地球全球溫度的方法。
生成八種方法和技術的詳細解釋。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase