🚀 Bootes-Qwen3_Coder-Reasoning
Bootes-Qwen3_Coder-Reasoning是Qwen3 - 4B架構的微調變體,針對高精度代碼推理和結構化邏輯任務完成進行了優化。該模型在CodeAlpaca_20K數據集和其他精心策劃的編程語料庫上進行訓練,旨在以輕量級計算需求執行技術編碼、推理和指令跟隨任務。

🚀 快速開始
使用Transformers庫快速開始
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Bootes-Qwen3_Coder-Reasoning"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Write a Python function to check whether a number is a palindrome. Explain each step."
messages = [
{"role": "system", "content": "You are a precise coding and reasoning assistant trained on CodeAlpaca and developer datasets."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
✨ 主要特性
- 基於CodeAlpaca_20K及更多數據集的代碼推理:在CodeAlpaca_20K和其他高質量補充數據集上進行微調,專注於多語言編程任務、代碼解釋、完成和調試,以及遵循具有逐步執行邏輯的指令。
- 跨語言代碼理解:支持Python、JavaScript、C++等多種語言,適用於代碼生成、轉換、修復和邏輯驗證。
- 結構化輸出生成:以Markdown、JSON、YAML和結構化代碼塊的形式提供響應,針對IDE工作流、文檔工具和可復現計算筆記本進行了優化。
- 針對開發者用例的指令調優:對用戶提示保持高度忠實,尤其適用於跨工程和數據工作流的多輪或逐步技術指令。
- 技術領域的多語言推理:能夠以20多種人類語言進行技術理解和解釋,支持全球開發者群體。
- 高效的4B架構:基於Qwen3 - 4B構建,是一個性能高效的推理模型,在中高端GPU和雲部署環境中具有良好的擴展性。
📚 詳細文檔
預期用途
- 代碼生成、完成和解釋
- 多步驟算法推理
- 結構化技術文檔生成(Markdown、JSON、YAML)
- 調試輔助和重構建議
- 技術輔導和開發者助手工作流
- 跨語言編程教育和翻譯
侷限性
- 在非代碼相關的創意寫作方面表現可能不佳。
- 與更大的模型相比,上下文窗口有限。
- 對於模糊指令的提示措辭較為敏感。
- 在需要簡潔表達時,偶爾會對代碼進行過度解釋。
參考資料
- Qwen2.5技術報告 – https://arxiv.org/pdf/2412.15115
- CodeAlpaca數據集 – https://github.com/sahil280114/codealpaca
- YaRN:大語言模型的上下文窗口擴展 – https://arxiv.org/pdf/2309.00071
📄 許可證
本項目採用Apache - 2.0許可證。
模型信息表格
屬性 |
詳情 |
基礎模型 |
prithivMLmods/Qwen3-4B-ft-bf16 |
訓練數據集 |
nvidia/OpenCodeReasoning、efficientscaling/Z1-Code-Reasoning-107K、HuggingFaceH4/CodeAlpaca_20K、mlabonne/FineTome-100k |
語言 |
英語 |
任務類型 |
文本生成 |
庫名稱 |
transformers |
標籤 |
moe、text-generation-inference、code、math、trl |
重要提示
⚠️ 重要提示
GGUF格式模型鏈接:https://huggingface.co/prithivMLmods/Bootes-Qwen3_Coder-Reasoning-Q4_K_M-GGUF