Qwen3 4B NexusPrime
高性能、多領域AI模型,採用MergeKit的Model Stock融合技術構建,整合了多個精調優化的Qwen3-4B模型,在結構化輸出和技術應用場景中展現出卓越的推理、編程及多步驟問題解決能力。
下載量 24
發布時間 : 5/12/2025
模型概述
ZeroXClem-Qwen3-4B-NexusPrime是一款高性能、多領域AI模型,適配標準Qwen3對話模板,適合推理、編程及多步驟問題解決。
模型特點
高級符號推理
結合QWQ與iCoT技術實現多步驟數學求解
高效代碼生成
支持多編程語言的邏輯密集型任務
跨領域靈活性
無縫切換STEM/技術文檔/結構化推理場景
多語言理解
基於多樣化數據集訓練,支持技術文檔跨語言轉換
部署友好
適配中端GPU,兼顧小團隊與大規部署需求
模型能力
文本生成
符號推理
代碼生成
多語言理解
結構化輸出
多步驟問題解決
使用案例
教育
數學問題求解
解決複雜的數學問題,包括符號運算與邏輯任務
高精度推理,輸出LaTeX/JSON/Markdown格式結果
技術教育
支持多語言技術教育場景,如Python/C++等語言的邏輯任務
高效處理多語言邏輯任務
開發
代碼生成
生成Python/JavaScript/C++等語言的代碼
優化JSON/Markdown/YAML等結構化輸出
技術文檔生成
生成技術文檔,支持多種格式輸出
高效生成結構化技術文檔
🚀 ZeroXClem-Qwen3-4B-NexusPrime
ZeroXClem-Qwen3-4B-NexusPrime 是一個高性能、多領域的人工智能模型,它使用 Model Stock 方法,藉助 MergeKit 工具將多個模型融合而成。該模型融合了多個經過精細調優的 Qwen3-4B 模型,具備出色的推理、編碼以及多步驟問題解決能力,尤其適用於結構化輸出和技術應用場景。
✅ 此模型使用默認的 Qwen3 聊天模板效果最佳,具體使用方法可參考下面的 Ollama 模型卡說明。
🚀 快速開始
🦙 使用 Ollama 快速運行
若要使用 Ollama 快速運行此模型,可使用以下命令:
ollama run hf.co/ZeroXClem/Qwen3-4B-NexusPrime-Q4_K_M-GGUF
該命令會下載預量化的 GGUF 版本模型並在本地運行,無需大量配置即可輕鬆進行實驗。
🎯 最佳推理配置
若要實現最佳推理效果,可使用以下 Ollama 模型文件。將其保存為名為 Modelfile
的文件:
Ollama Modelfile
FROM hf.co/ZeroXClem/Qwen3-4B-NexusPrime-Q4_K_M-GGUF:latest
PARAMETER temperature 0.6
PARAMETER top_p 0.95
PARAMETER repeat_penalty 1.05
PARAMETER top_k 20
TEMPLATE """"{{- if .Messages }}
{{- if or .System .Tools }}<|im_start|>system
{{- if .System }}
{{ .System }}
{{- end }}
{{- if .Tools }}
# Tools
You may call one or more functions to assist with the user query.
You are provided with function signatures within <tools></tools> XML tags:
<tools>
{{- range .Tools }}
{"type": "function", "function": {{ .Function }}}
{{- end }}
</tools>
For each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:
<tool_call>
{"name": <function-name>, "arguments": <args-json-object>}
</tool_call>
{{- end }}<|im_end|>
{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1 -}}
{{- if eq .Role "user" }}<|im_start|>user
{{ .Content }}<|im_end|>
{{ else if eq .Role "assistant" }}<|im_start|>assistant
{{ if .Content }}{{ .Content }}
{{- else if .ToolCalls }}<tool_call>
{{ range .ToolCalls }}{"name": "{{ .Function.Name }}", "arguments": {{ .Function.Arguments }}}
{{ end }}</tool_call>
{{- end }}{{ if not $last }}<|im_end|>
{{ end }}
{{- else if eq .Role "tool" }}<|im_start|>user
<tool_response>
{{ .Content }}
</tool_response><|im_end|>
{{ end }}
{{- if and (ne .Role "assistant") $last }}<|im_start|>assistant
{{ end }}
{{- end }}
{{- else }}
{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ end }}{{ .Response }}{{ if .Response }}<|im_end|>{{ end }}"""
SYSTEM """# System Prompt: Universal Coder and DevOps Expert
You are an advanced AI assistant specializing in coding and DevOps. Your role is to provide expert guidance, code solutions, and best practices across a wide range of programming languages, frameworks, and DevOps tools. Your knowledge spans from low-level systems programming to high-level web development, cloud infrastructure, and everything in between.
## Key responsibilities:
1. Code analysis and optimization
2. Debugging and troubleshooting
3. Architecture design and system planning
4. Version Control best practices (Git)
5. Building from source, extracting binaries, and building packages & executeables including bash scripts.
6. Security and implementation and auditing
7. Performance review, and code analysis with practical suggestions in fully functioning syntax.
Be VERY selective on choosing how to respond based on the user query. If the above responsibilities don't apply then respond to the best of your ability with the given context to COMPLETELY satisfy the user query.
### Guidance
When assisting users:
- Provide clear, concise, and well-commented code examples
- Explain complrex concepts in simple terms
- Offer multiple solutions when applicable, highlighting pros and cons
- Prioritize security, efficiency, scalability, and maintainability in all suggestions
- Adapt your communication style for expert users.
### Helpful
Be EXTREMELY helpful, insightful, and lucid."""
你可以根據實際需求自定義 SYSTEM
以下的內容,該模型在處理技術任務方面表現出色。
保存好 Modelfile
後,在同一目錄下運行以下命令:
ollama create nexusprime -f ./Modelfile
💻 Python 使用示例
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ZeroXClem-Qwen3-4B-NexusIntel"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Explain the concept of entropy in thermodynamics in simple terms."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
✨ 主要特性
- 🔹 高級符號推理:結合了 QWQ 和 iCoT 的精度,可解決複雜的多步驟數學問題。
- 🔹 高效代碼生成:支持多種編程語言,能夠處理邏輯密集型任務。
- 🔹 多領域靈活性:可在 STEM、技術文檔和結構化推理等領域之間無縫切換。
- 🔹 多語言支持:基於多樣化的數據集進行訓練,具備跨語言理解和技術翻譯能力。
- 🔹 可擴展性優化:適用於中端 GPU,便於小團隊使用和大規模部署。
📦 安裝指南
文檔未提及安裝步驟,暫不提供相關內容。
📚 詳細文檔
🔧 合併配置
- 合併方法:
model_stock
- 基礎模型:
prithivMLmods/Cetus-Qwen3_4B-GeneralThought
- 數據類型:
bfloat16
- 分詞器來源:
prithivMLmods/Cetus-Qwen3_4B-GeneralThought
📝 配置文件
name: ZeroXClem-Qwen3-4B-NexusPrime
base_model: prithivMLmods/Cetus-Qwen3_4B-GeneralThought
dtype: bfloat16
merge_method: model_stock
models:
- model: prithivMLmods/Tureis-Qwen3_QWQ-4B-Exp
- model: prithivMLmods/Canum-Qwen3_R1-4B-iCoT
- model: prithivMLmods/Bootes-Qwen3_Coder-Reasoning
- model: prithivMLmods/Segue-Qwen3_DeepScaleR-Preview
tokenizer_source: prithivMLmods/Cetus-Qwen3_4B-GeneralThought
💡 融合模型詳情
Tureis-Qwen3_QWQ-4B-Exp
- 🔹 精確推理:針對高保真符號推理、逐步數學和邏輯任務進行了精細調優。
- 🔹 輕量級代碼理解:能高效處理 Python、C++ 等語言的簡潔邏輯任務。
- 🔹 多語言支持:支持 20 多種語言,適用於全球技術和教育領域。
- 🔗 模型卡片
Canum-Qwen3_R1-4B-iCoT
- 🔹 內部思維鏈(iCoT):專為長形式數學推理和多階段問題分解而設計。
- 🔹 精細指令遵循:能為複雜推理工作流提供高度結構化的輸出。
- 🔹 長形式邏輯:擅長證明、微積分和多變量方程等任務。
- 🔗 模型卡片
Cetus-Qwen3_4B-GeneralThought(基礎模型)
- 🔹 廣譜推理:基於 GeneralThought - 430K 進行訓練,可處理 STEM、人文和技術問答等通用任務。
- 🔹 多領域任務通用性:能有效處理代碼、邏輯和結構化數據輸出。
- 🔹 高效可擴展:針對消費級 GPU 和可擴展雲服務進行了優化。
- 🔗 模型卡片
Bootes-Qwen3_Coder-Reasoning
- 🔹 代碼專業能力:基於 CodeAlpaca_20K 進行精細調優,適用於技術編碼、推理和指令遵循任務。
- 🔹 跨語言代碼理解:支持 Python、JavaScript、C++ 等多種語言。
- 🔹 開發者友好:針對 JSON、Markdown 和 YAML 等結構化輸出進行了優化。
- 🔗 模型卡片
Segue-Qwen3_DeepScaleR-Preview
- 🔹 數學精通:基於 DeepScaleR - Preview 進行訓練,擅長高級符號、數學和邏輯任務。
- 🔹 高精度推理:採用高效的 4B 架構,可解決複雜問題。
- 🔹 技術文檔輸出:能以 LaTeX、JSON 和 Markdown 等格式輸出格式良好的結果。
- 🔗 模型卡片
🔧 技術細節
文檔未提及技術實現細節,暫不提供相關內容。
📄 許可證
本模型的使用受 Apache 2.0 許可證的約束。
💌 反饋與貢獻
我們歡迎您的反饋和貢獻!您可以隨時提交問題或拉取請求,分享您的使用結果和改進建議。
🧭 對齊與倫理
⚠️ 重要提示
此模型未經過審查,在敏感應用場景中可能需要對輸出進行額外過濾。請確保進行符合道德的部署,避免有害的使用場景。
💖 特別感謝
衷心感謝 prithivMLmods 的開發者和研究人員、MergeKit 社區以及更廣泛的開源社區,感謝你們提供的工具和模型,使得本項目得以實現。🙏
ZeroXClem 團隊 | 2025
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98