🚀 MetaMath-Llemma-7B
MetaMath-Llemma-7Bは、MetaMathQAデータセットで完全にファインチューニングされた数学用の言語モデルです。強力なLlemma-7Bモデルをベースに構築され、MATHタスクでの性能向上が期待できます。
🚀 クイックスタート
本モデルの詳細や使い方については、以下のリンクを参照してください。
✨ 主な機能
- MetaMathQAデータセットを使用して完全にファインチューニングされています。
- ベースモデルをLlemma-7Bに変更することで、MATHタスクの性能が大幅に向上します。
📦 インストール
必要なライブラリをインストールするには、以下のコマンドを実行してください。
pip install transformers==4.35.0
pip install torch==2.0.1
pip install sentencepiece==0.1.99
pip install tokenizers==0.13.3
pip install accelerate==0.21.0
pip install bitsandbytes==0.40.0
pip install vllm
pip install fraction
pip install protobuf
💻 使用例
基本的な使用法
以下は、モデルを使用するためのプロンプトテンプレートです。
prompt = '''
"Below is an instruction that describes a task. "
"Write a response that appropriately completes the request.\n\n"
"### Instruction:\n{instruction}\n\n### Response: Let's think step by step."
'''
高度な使用法
実際に使用する際には、{instruction} を実際のクエリ質問に置き換えてください。
📚 ドキュメント
データセットに関する注意事項
すべてのMetaMathQAデータは、GSM8KとMATHのトレーニングセットから拡張されています。拡張データのいずれもテストセットからは取得されていません。
meta-math/MetaMathQA
の original_question
を確認すると、各項目がGSM8KまたはMATHのトレーニングセットに由来することがわかります。
モデル詳細
MetaMath-Llemma-7Bは、MetaMathQAデータセットで完全にファインチューニングされ、強力なLlemma-7Bモデルをベースにしています。MetaMathQAデータセットを使用し、ベースモデルをllama-2-7BからLlemma-7Bに変更することで、MATHの性能が19.8から30.0に向上したことが確認されています。
実験結果
以下は、いくつかのモデルのGSM8k Pass@1とMATH Pass@1の結果です。
モデル |
GSM8k Pass@1 |
MATH Pass@1 |
MPT-7B |
6.8 |
3.0 |
Falcon-7B |
6.8 |
2.3 |
LLaMA-1-7B |
11.0 |
2.9 |
LLaMA-2-7B |
14.6 |
2.5 |
MPT-30B |
15.2 |
3.1 |
LLaMA-1-13B |
17.8 |
3.9 |
GPT-Neo-2.7B |
19.5 |
-- |
Falcon-40B |
19.6 |
2.5 |
Baichuan-chat-13B |
23.9 |
-- |
Vicuna-v1.3-13B |
27.6 |
-- |
LLaMA-2-13B |
28.7 |
3.9 |
InternLM-7B |
31.2 |
-- |
ChatGLM-2-6B |
32.4 |
-- |
GPT-J-6B |
34.9 |
-- |
LLaMA-1-33B |
35.6 |
3.9 |
LLaMA-2-34B |
42.2 |
6.24 |
RFT-7B |
50.3 |
-- |
LLaMA-1-65B |
50.9 |
10.6 |
Qwen-7B |
51.6 |
-- |
WizardMath-7B |
54.9 |
10.7 |
LLaMA-2-70B |
56.8 |
13.5 |
WizardMath-13B |
63.9 |
14.0 |
MAmmoTH-7B (COT) |
50.5 |
10.4 |
MAmmoTH-7B (POT+COT) |
53.6 |
31.5 |
Arithmo-Mistral-7B |
74.7 |
25.3 |
MetaMath-7B |
66.5 |
19.8 |
MetaMath-13B |
72.3 |
22.4 |
🔥 MetaMath-Llemma-7B |
69.2 |
30.0 |
🔥 MetaMath-Mistral-7B |
77.7 |
28.2 |
📄 ライセンス
本プロジェクトは、Apache-2.0ライセンスの下で提供されています。
📚 引用
本モデルやデータセットを使用する場合は、以下の文献を引用してください。
@article{yu2023metamath,
title={MetaMath: Bootstrap Your Own Mathematical Questions for Large Language Models},
author={Yu, Longhui and Jiang, Weisen and Shi, Han and Yu, Jincheng and Liu, Zhengying and Zhang, Yu and Kwok, James T and Li, Zhenguo and Weller, Adrian and Liu, Weiyang},
journal={arXiv preprint arXiv:2309.12284},
year={2023}
}
@article{azerbayev2023llemma,
title={Llemma: An open language model for mathematics},
author={Azerbayev, Zhangir and Schoelkopf, Hailey and Paster, Keiran and Santos, Marco Dos and McAleer, Stephen and Jiang, Albert Q and Deng, Jia and Biderman, Stella and Welleck, Sean},
journal={arXiv preprint arXiv:2310.10631},
year={2023}
}