🚀 WizardLM:赋能大预训练语言模型遵循复杂指令
WizardLM致力于让大预训练语言模型能够更好地遵循复杂指令,为用户提供更精准、高效的服务,具有广泛的应用价值。
🔗 相关链接
🎥 非官方视频介绍
感谢热心朋友制作的视频介绍,它们生动有趣。
- NEW WizardLM 70b 🔥 Giant Model...Insane Performance
- GET WizardLM NOW! 7B LLM KING That Can Beat ChatGPT! I'm IMPRESSED!
- WizardLM: Enhancing Large Language Models to Follow Complex Instructions
- WizardCoder AI Is The NEW ChatGPT's Coding TWIN!
📢 新闻动态
- 🔥🔥🔥 [2023/08/26] 我们发布了 WizardCoder-Python-34B-V1.0,在HumanEval基准测试中达到了 73.2 pass@1,超越了 GPT4 (2023/03/15)、ChatGPT-3.5 和 Claude2。更多详情请参考 WizardCoder。
- [2023/06/16] 我们发布了 WizardCoder-15B-V1.0,在HumanEval基准测试中超越了 Claude-Plus (+6.8)、Bard (+15.3) 和 InstructCodeT5+ (+22.3)。更多详情请参考 WizardCoder。
- 🔥 [08/11/2023] 我们发布了 WizardMath 模型。
- 🔥 我们的 WizardMath-70B-V1.0 模型在GSM8K基准测试中略优于一些闭源大语言模型,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。
- 🔥 我们的 WizardMath-70B-V1.0 模型在GSM8k基准测试中达到了 81.6 pass@1,比当前最优的开源大语言模型高出 24.8 分。
- 🔥 我们的 WizardMath-70B-V1.0 模型在MATH基准测试中达到了 22.7 pass@1,比当前最优的开源大语言模型高出 9.2 分。
- 🔥🔥🔥 [08/09/2023] 我们发布了 WizardLM-70B-V1.0 模型。
📊 模型信息表格
WizardCoder系列模型
WizardMath系列模型
WizardLM系列模型
模型 |
检查点 |
论文 |
MT - Bench |
AlpacaEval |
GSM8k |
HumanEval |
许可证 |
WizardLM - 70B - V1.0 |
🤗 HF链接 |
📃 即将发布 |
7.78 |
92.91% |
77.6% |
50.6 pass@1 |
Llama 2许可证 |
WizardLM - 13B - V1.2 |
🤗 HF链接 |
|
7.06 |
89.17% |
55.3% |
36.6 pass@1 |
Llama 2许可证 |
WizardLM - 13B - V1.1 |
🤗 HF链接 |
|
6.76 |
86.32% |
|
25.0 pass@1 |
非商业用途 |
WizardLM - 30B - V1.0 |
🤗 HF链接 |
|
7.01 |
|
|
37.8 pass@1 |
非商业用途 |
WizardLM - 13B - V1.0 |
🤗 HF链接 |
|
6.35 |
75.31% |
|
24.0 pass@1 |
非商业用途 |
WizardLM - 7B - V1.0 |
🤗 HF链接 |
📃 WizardLM |
|
|
|
19.1 pass@1 |
非商业用途 |
⚠️ 模型系统提示使用说明
WizardLM 采用了 Vicuna 的提示格式,支持 多轮 对话。提示格式如下:
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. USER: Hi ASSISTANT: Hello.</s>USER: Who are you? ASSISTANT: I am WizardLM.</s>......
💻 推理WizardLM演示脚本
我们在这里提供了推理WizardLM的演示代码。
📚 引用说明
如果您使用了WizardLM的数据或代码,请引用以下论文:
@article{xu2023wizardlm,
title={Wizardlm: Empowering large language models to follow complex instructions},
author={Xu, Can and Sun, Qingfeng and Zheng, Kai and Geng, Xiubo and Zhao, Pu and Feng, Jiazhan and Tao, Chongyang and Jiang, Daxin},
journal={arXiv preprint arXiv:2304.12244},
year={2023}
}
⚠️ 关于数据集的常见问题说明
近期,我们整个组织的代码、数据和模型的开源政策和规定发生了明显变化。尽管如此,我们仍努力先开放了模型权重,但数据涉及更严格的审核,正在与我们的法律团队进行审核。我们的研究人员无权擅自公开发布。感谢您的理解。