🚀 WizardLM-13B V1.2 モデル
これはWizardLM-13B V1.2モデルの完全重み付けです。このモデルはLlama-2 13bから訓練されています。
WizardLM: 大規模事前学習言語モデルに複雑な指示に従う能力を付与する
🤗 HFリポジトリ •🐱 GitHubリポジトリ • 🐦 Twitter • 📃 [WizardLM] • 📃 [WizardCoder] • 📃 [WizardMath]
👋 Discordに参加しましょう
ニュース
- 🔥🔥🔥[2023/08/26] WizardCoder-Python-34B-V1.0をリリースしました。このモデルは73.2 pass@1を達成し、HumanEvalベンチマークでGPT4 (2023/03/15)、ChatGPT-3.5、Claude2を上回りました。詳細はWizardCoderを参照してください。
- [2023/06/16] WizardCoder-15B-V1.0をリリースしました。このモデルはHumanEvalベンチマークでClaude-Plus (+6.8)、Bard (+15.3)、**InstructCodeT5+ (+22.3)**を上回りました。詳細はWizardCoderを参照してください。
- 🔥 [08/11/2023] WizardMathモデルをリリースしました。
- 🔥 私たちのWizardMath-70B-V1.0モデルは、GSM8KでChatGPT 3.5、Claude Instant 1、PaLM 2 540Bを含むいくつかの閉鎖型LLMを僅差で上回っています。
- 🔥 私たちのWizardMath-70B-V1.0モデルは、GSM8kベンチマークで81.6 pass@1を達成し、SOTAのオープンソースLLMよりも24.8ポイント高い結果を得ています。
- 🔥 私たちのWizardMath-70B-V1.0モデルは、MATHベンチマークで22.7 pass@1を達成し、SOTAのオープンソースLLMよりも9.2ポイント高い結果を得ています。
モデル |
チェックポイント |
論文 |
MT-Bench |
AlpacaEval |
WizardEval |
HumanEval |
ライセンス |
WizardLM-13B-V1.2 |
🤗 HFリンク |
|
7.06 |
89.17% |
101.4% |
36.6 pass@1 |
Llama 2ライセンス |
WizardLM-13B-V1.1 |
🤗 HFリンク |
|
6.76 |
86.32% |
99.3% |
25.0 pass@1 |
非商用 |
WizardLM-30B-V1.0 |
🤗 HFリンク |
|
7.01 |
|
97.8% |
37.8 pass@1 |
非商用 |
WizardLM-13B-V1.0 |
🤗 HFリンク |
|
6.35 |
75.31% |
89.1% |
24.0 pass@1 |
非商用 |
WizardLM-7B-V1.0 |
🤗 HFリンク |
📃 [WizardLM] |
|
|
78.0% |
19.1 pass@1 |
非商用 |
リポジトリ: https://github.com/nlpxucan/WizardLM
Twitter:
❗モデルのシステムプロンプトの使用に関する注意
WizardLMはVicunaのプロンプト形式を採用しており、複数ターンの会話をサポートしています。プロンプトは以下のようにする必要があります。
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. USER: Hi ASSISTANT: Hello.</s>USER: Who are you? ASSISTANT: I am WizardLM.</s>......
WizardLMデモスクリプトの推論
推論用のWizardLMデモコードはこちらにあります。
WizardLMのデータやコードを使用する場合は、論文を引用してください。
@article{xu2023wizardlm,
title={Wizardlm: Empowering large language models to follow complex instructions},
author={Xu, Can and Sun, Qingfeng and Zheng, Kai and Geng, Xiubo and Zhao, Pu and Feng, Jiazhan and Tao, Chongyang and Jiang, Daxin},
journal={arXiv preprint arXiv:2304.12244},
year={2023}
}
❗データセットに関する一般的な懸念
最近、当組織全体のコード、データ、モデルのオープンソースポリシーと規制に明確な変更がありました。
それにもかかわらず、私たちはまだモデルの重みを最初に公開するために努力しましたが、データにはより厳格な審査が必要であり、法務チームによるレビュー中です。
私たちの研究者は、許可なく公開する権限を持っていません。
ご理解いただければ幸いです。
📄 ライセンス
このモデルはLlama2ライセンスの下で提供されています。詳細については、Llama2ライセンスを参照してください。