🚀 WizardLM-13B V1.2全量权重模型
这是WizardLM-13B V1.2模型的全量权重,该模型基于Llama-2 13b训练而来。
项目链接
🤗 Hugging Face仓库 •🐱 GitHub仓库 • 🐦 Twitter • 📃 [WizardLM论文] • 📃 [WizardCoder论文] • 📃 [WizardMath论文]
👋 加入我们的 Discord社区
✨ 主要特性
模型发布动态
模型性能表现
- WizardCoder系列:在代码生成任务上表现出色,不同版本在HumanEval和MBPP等基准测试中取得了优异成绩。
- WizardMath系列:
- WizardMath-70B-V1.0 模型在GSM8K基准测试中略优于一些闭源大语言模型,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。
- WizardMath-70B-V1.0 模型在 GSM8k基准测试 中达到 81.6 pass@1 ,比当前最优的开源大语言模型高 24.8 分。
- WizardMath-70B-V1.0 模型在 MATH基准测试 中达到 22.7 pass@1 ,比当前最优的开源大语言模型高 9.2 分。
- WizardLM系列:
模型信息表格
WizardCoder系列
WizardMath系列
WizardLM系列
模型 |
检查点 |
论文 |
MT-Bench |
AlpacaEval |
WizardEval |
HumanEval |
许可证 |
WizardLM-13B-V1.2 |
🤗 HF链接 |
|
7.06 |
89.17% |
101.4% |
36.6 pass@1 |
Llama 2许可证 |
WizardLM-13B-V1.1 |
🤗 HF链接 |
|
6.76 |
86.32% |
99.3% |
25.0 pass@1 |
非商业用途 |
WizardLM-30B-V1.0 |
🤗 HF链接 |
|
7.01 |
|
97.8% |
37.8 pass@1 |
非商业用途 |
WizardLM-13B-V1.0 |
🤗 HF链接 |
|
6.35 |
75.31% |
89.1% |
24.0 pass@1 |
非商业用途 |
WizardLM-7B-V1.0 |
🤗 HF链接 |
📃 [WizardLM] |
|
|
78.0% |
19.1 pass@1 |
非商业用途 |
模型系统提示使用说明
⚠️ 重要提示
WizardLM 采用了 Vicuna 的提示格式,支持 多轮 对话。提示格式如下:
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. USER: Hi ASSISTANT: Hello.</s>USER: Who are you? ASSISTANT: I am WizardLM.</s>......
推理演示脚本说明
我们在 此处 提供了WizardLM的推理演示代码。
数据集相关说明
⚠️ 重要提示
近期,我们整个组织的代码、数据和模型的开源政策和规定发生了明显变化。尽管如此,我们仍努力先开放了模型的权重,但数据涉及更严格的审核,目前正在与我们的法律团队进行审核。我们的研究人员无权擅自公开发布这些数据。感谢您的理解。
引用说明
如果您使用了WizardLM的数据或代码,请引用以下论文:
@article{xu2023wizardlm,
title={Wizardlm: Empowering large language models to follow complex instructions},
author={Xu, Can and Sun, Qingfeng and Zheng, Kai and Geng, Xiubo and Zhao, Pu and Feng, Jiazhan and Tao, Chongyang and Jiang, Daxin},
journal={arXiv preprint arXiv:2304.12244},
year={2023}
}
仓库和Twitter链接
- 仓库地址:https://github.com/nlpxucan/WizardLM
- Twitter:WizardLM_AI
📄 许可证
本项目采用 Llama 2许可证。