🚀 AceInstruct
AceInstructは、コーディング、数学、一般的なタスクに対応した高度なSFTモデルのファミリーです。Qwenを用いて改善されており、幅広いドメインでの使用が可能で、Qwen2.5-Instructと同等の性能を発揮します。
🚀 クイックスタート
AceInstructは、コーディング、数学、一般知識のタスクに対応した高度なSFTモデルのファミリーです。AceInstructファミリーには、AceInstruct-1.5B、7B、72Bが含まれており、Qwenを用いて改善されています。
これらのモデルは、一般的なSFTデータセットを使用してQwen2.5-Base上で微調整されています。同じデータセットは、AceMath-Instructのトレーニングにも使用されています。数学の質問に特化したAceMath-Instructとは異なり、AceInstructは汎用的で、幅広いドメインに適用できます。コーディング、数学、一般知識のタスクにわたるベンチマーク評価により、AceInstructはQwen2.5-Instructと同等の性能を発揮することが示されています。
AceInstructの詳細については、ウェブサイトと論文をご確認ください。
✨ 主な機能
ベンチマーク結果
|
Qwen2.5-1.5B-Instruct |
AceInstruct-1.5B |
Qwen2.5-7B-Instruct |
AceInstruct-7B |
Qwen2.5-72B-Instruct |
AceInstruct-72B |
HumanEval |
61.60 |
73.17 |
84.80 |
85.37 |
86.60 |
89.63 |
MBPP |
63.20 |
65.76 |
79.20 |
74.32 |
88.20 |
83.66 |
GSM8K |
73.20 |
80.44 |
91.60 |
93.10 |
95.80 |
96.36 |
MATH |
55.20 |
60.34 |
75.50 |
76.40 |
83.10 |
84.50 |
MMLU |
58.37 |
58.17 |
74.51 |
74.68 |
84.67 |
83.88 |
MMLU Pro |
32.40 |
33.78 |
56.30 |
54.50 |
71.10 |
66.10 |
Average |
57.33 |
61.94 |
76.99 |
76.40 |
84.91 |
84.02 |
コーディング、数学、一般知識のタスクにわたってAceInstructをQwen2.5-Instructと比較しました。AceInstruct-1.5BはQwen2.5-1.5B-Instructを上回っており(61.94対57.33)、AceInstruct-7BとAceInstruct-72BはQwen2.5-7B-InstructとQwen2.5-72B-Instructと同様の性能を発揮しています。
すべてのリソース
AceMath命令モデル
AceMath報酬モデル
評価とトレーニングデータ
一般的な命令モデル
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "AceInstruct-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
prompt = "Tell me something about artificial intelligence."
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to("cuda")
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
📚 ドキュメント
担当者
Zihan Liu (zihanl@nvidia.com)、Yang Chen (yachen@nvidia.com)、Wei Ping (wping@nvidia.com)
引用
もし私たちの研究が役に立った場合は、引用していただけると幸いです。
@article{acemath2024,
title={AceMath: Advancing Frontier Math Reasoning with Post-Training and Reward Modeling},
author={Liu, Zihan and Chen, Yang and Shoeybi, Mohammad and Catanzaro, Bryan and Ping, Wei},
journal={arXiv preprint},
year={2024}
}
📄 ライセンス
AceInstructファミリーのすべてのモデルは、OpenAIによって生成されたデータの利用規約に従い、非商用利用のみに許可されています。AceInstructモデルは、Creative Commons Attribution: Non-Commercial 4.0 Internationalのライセンスの下に置かれています。