🚀 WizardCoder:藉助Evol - Instruct賦能代碼大語言模型
WizardCoder是一款專注於代碼生成的大語言模型,通過Evol - Instruct技術增強了模型的代碼生成能力,在多個代碼評估基準測試中表現出色,為開發者提供了強大的代碼生成支持。
基本信息
屬性 |
詳情 |
模型類型 |
WizardCoder - Python - 13B - V1.0 |
訓練數據 |
未提及 |
許可證 |
llama2 |
評估指標 |
code_eval |
庫名稱 |
transformers |
標籤 |
code |
模型結果
模型名稱 |
任務類型 |
數據集 |
指標 |
值 |
驗證狀態 |
WizardCoder - Python - 13B - V1.0 |
文本生成 |
HumanEval(openai_humaneval) |
pass@1 |
0.64 |
未驗證 |
🔗 相關鏈接
🏠 主頁
🤗 HF倉庫 •🐱 Github倉庫 • 🐦 Twitter
📃 [WizardLM] • 📃 [WizardCoder] • 📃 [WizardMath]
👋 加入我們的 Discord
📢 最新消息
- [2024/01/04] 🔥 我們發佈了 WizardCoder - 33B - V1.1,該模型基於deepseek - coder - 33b - base訓練,是 EvalPlus排行榜 上的 最優開源代碼大語言模型,在HumanEval上達到 79.9 pass@1,在HumanEval - Plus上達到 73.2 pass@1,在MBPP上達到 78.9 pass@1,在MBPP - Plus上達到 66.9 pass@1。
- [2024/01/04] 🔥 WizardCoder - 33B - V1.1 在HumanEval和HumanEval - Plus的pass@1指標上超越了 ChatGPT 3.5、Gemini Pro 和 DeepSeek - Coder - 33B - instruct。
- [2024/01/04] 🔥 WizardCoder - 33B - V1.1 在MBPP和MBPP - Plus的pass@1指標上與 ChatGPT 3.5 相當,並且超越了 Gemini Pro。
代碼模型對比
數學模型對比
- 我們的 WizardMath - 70B - V1.0 模型在GSM8K基準測試中略微超過了一些閉源大語言模型,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。
- 我們的 WizardMath - 70B - V1.0 模型在 [GSM8k基準測試](https://github.com/openai/grade - school - math) 中達到 81.6 pass@1,比最優開源大語言模型高出 24.8 分,在 MATH基準測試 中達到 22.7 pass@1,比最優開源大語言模型高出 9.2 分。
WizardLM模型對比
- [2023/08/09] 我們發佈了 WizardLM - 70B - V1.0 模型。完整模型權重。
模型 |
檢查點 |
論文 |
MT - Bench |
AlpacaEval |
GSM8k |
HumanEval |
許可證 |
WizardLM - 70B - V1.0 |
🤗 HF鏈接 |
📃即將發佈 |
7.78 |
92.91% |
77.6% |
50.6 |
Llama 2許可證 |
WizardLM - 13B - V1.2 |
🤗 HF鏈接 |
|
7.06 |
89.17% |
55.3% |
36.6 |
Llama 2許可證 |
WizardLM - 13B - V1.1 |
🤗 HF鏈接 |
|
6.76 |
86.32% |
|
25.0 |
非商業用途 |
WizardLM - 30B - V1.0 |
🤗 HF鏈接 |
|
7.01 |
|
|
37.8 |
非商業用途 |
WizardLM - 13B - V1.0 |
🤗 HF鏈接 |
|
6.35 |
75.31% |
|
24.0 |
非商業用途 |
WizardLM - 7B - V1.0 |
🤗 HF鏈接 |
📃 [WizardLM] |
|
|
|
19.1 |
非商業用途 |
📊 WizardCoder - Python - 34B - V1.0與其他大語言模型對比
🔥 下圖顯示我們的 WizardCoder - Python - 34B - V1.0在該基準測試中獲得第二名,超越了GPT4(2023/03/15,73.2 vs. 67.0)、ChatGPT - 3.5(73.2 vs. 72.5)和Claude2(73.2 vs. 71.2)。
💬 提示格式
"Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Response:"
🚀 推理演示腳本
我們在 此處 提供了推理演示代碼。
⚠️ 重要提示
此腳本支持 WizardLM/WizardCoder - Python - 34B/13B/7B - V1.0
。如果您想對 WizardLM/WizardCoder - 15B/3B/1B - V1.0
進行推理,請在腳本中將 stop_tokens = ['</s>']
更改為 stop_tokens = ['<|endoftext|>']
。
📚 引用
如果您使用了本倉庫中的數據、方法或代碼,請引用該倉庫。
@article{luo2023wizardcoder,
title={WizardCoder: Empowering Code Large Language Models with Evol-Instruct},
author={Luo, Ziyang and Xu, Can and Zhao, Pu and Sun, Qingfeng and Geng, Xiubo and Hu, Wenxiang and Tao, Chongyang and Ma, Jing and Lin, Qingwei and Jiang, Daxin},
journal={arXiv preprint arXiv:2306.08568},
year={2023}
}