🚀 Bootes-Qwen3_Coder-Reasoning
Bootes-Qwen3_Coder-Reasoning是Qwen3 - 4B架构的微调变体,针对高精度代码推理和结构化逻辑任务完成进行了优化。该模型在CodeAlpaca_20K数据集和其他精心策划的编程语料库上进行训练,旨在以轻量级计算需求执行技术编码、推理和指令跟随任务。

🚀 快速开始
使用Transformers库快速开始
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Bootes-Qwen3_Coder-Reasoning"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Write a Python function to check whether a number is a palindrome. Explain each step."
messages = [
{"role": "system", "content": "You are a precise coding and reasoning assistant trained on CodeAlpaca and developer datasets."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
✨ 主要特性
- 基于CodeAlpaca_20K及更多数据集的代码推理:在CodeAlpaca_20K和其他高质量补充数据集上进行微调,专注于多语言编程任务、代码解释、完成和调试,以及遵循具有逐步执行逻辑的指令。
- 跨语言代码理解:支持Python、JavaScript、C++等多种语言,适用于代码生成、转换、修复和逻辑验证。
- 结构化输出生成:以Markdown、JSON、YAML和结构化代码块的形式提供响应,针对IDE工作流、文档工具和可复现计算笔记本进行了优化。
- 针对开发者用例的指令调优:对用户提示保持高度忠实,尤其适用于跨工程和数据工作流的多轮或逐步技术指令。
- 技术领域的多语言推理:能够以20多种人类语言进行技术理解和解释,支持全球开发者群体。
- 高效的4B架构:基于Qwen3 - 4B构建,是一个性能高效的推理模型,在中高端GPU和云部署环境中具有良好的扩展性。
📚 详细文档
预期用途
- 代码生成、完成和解释
- 多步骤算法推理
- 结构化技术文档生成(Markdown、JSON、YAML)
- 调试辅助和重构建议
- 技术辅导和开发者助手工作流
- 跨语言编程教育和翻译
局限性
- 在非代码相关的创意写作方面表现可能不佳。
- 与更大的模型相比,上下文窗口有限。
- 对于模糊指令的提示措辞较为敏感。
- 在需要简洁表达时,偶尔会对代码进行过度解释。
参考资料
- Qwen2.5技术报告 – https://arxiv.org/pdf/2412.15115
- CodeAlpaca数据集 – https://github.com/sahil280114/codealpaca
- YaRN:大语言模型的上下文窗口扩展 – https://arxiv.org/pdf/2309.00071
📄 许可证
本项目采用Apache - 2.0许可证。
模型信息表格
属性 |
详情 |
基础模型 |
prithivMLmods/Qwen3-4B-ft-bf16 |
训练数据集 |
nvidia/OpenCodeReasoning、efficientscaling/Z1-Code-Reasoning-107K、HuggingFaceH4/CodeAlpaca_20K、mlabonne/FineTome-100k |
语言 |
英语 |
任务类型 |
文本生成 |
库名称 |
transformers |
标签 |
moe、text-generation-inference、code、math、trl |
重要提示
⚠️ 重要提示
GGUF格式模型链接:https://huggingface.co/prithivMLmods/Bootes-Qwen3_Coder-Reasoning-Q4_K_M-GGUF