🚀 Kimi-Dev
Kimi-Dev-72B 是一款用於軟件工程任務的開源編碼大語言模型。它在 SWE-bench Verified 上取得了開源模型中的最優成績,為軟件開發和問題解決提供了強大的支持。
🚀 快速開始
以下是使用 Kimi-Dev-72B 模型的示例代碼:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "moonshotai/Kimi-Dev-72B"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Give me a short introduction to large language model."
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
✨ 主要特性
- 卓越性能:Kimi-Dev-72B 在 SWE-bench Verified 上達到了 60.4% 的性能表現,超越了其他開源模型,創造了新的最優成績。
- 強化學習優化:通過大規模強化學習進行優化,能夠在 Docker 中自動修復真實倉庫的問題,並僅在整個測試套件通過時獲得獎勵,確保解決方案的正確性和魯棒性,符合實際開發標準。
- 易於獲取:可在 Hugging Face 和 GitHub 上下載和部署,歡迎開發者和研究人員探索其能力並參與開發。
📄 許可證
本項目採用 MIT 許可證。
📚 詳細文檔
引用信息
如果您在研究中使用了 Kimi-Dev-72B,請使用以下 BibTeX 引用:
@misc{kimi_dev_72b_2025,
title = {Introducing Kimi-Dev: A Strong and Open-source Coding LLM for Issue Resolution},
author = {{Kimi-Dev Team}},
year = {2025},
month = {June},
url = {\url{https://www.moonshot.cn/Kimi-Dev}}
}
模型信息
屬性 |
詳情 |
模型類型 |
基於 Qwen/Qwen2.5 - 72B 的編碼大語言模型 |
訓練數據 |
暫未提及 |