🚀 OpenMath-Nemotron-7B
OpenMath-Nemotron-7Bは、Qwen/Qwen2.5-Math-7B を OpenMathReasoning データセットでファインチューニングすることで作成されました。このモデルは商用利用が可能です。

OpenMath-Nemotronモデルは、人気のある数学的ベンチマークで最先端の結果を達成しています。評価指標として、pass@1 (maj@64) を提示しています。ここで、pass@1は64回の生成にわたる平均精度で、maj@64は多数決の結果です。評価設定の詳細については、論文 を参照してください。
モデル |
AIME24 |
AIME25 |
HMMT-24-25 |
HLE-Math |
DeepSeek-R1-Distill-Qwen-1.5B |
26.8 (60.0) |
21.4 (36.7) |
14.2 (26.5) |
2.9 (5.0) |
OpenMath-Nemotron-1.5B CoT |
61.6 (80.0) |
49.5 (66.7) |
39.9 (53.6) |
5.4 (5.4) |
OpenMath-Nemotron-1.5B TIR |
52.0 (83.3) |
39.7 (70.0) |
37.2 (60.7) |
2.5 (6.2) |
+ Self GenSelect |
83.3 |
70.0 |
62.2 |
7.9 |
+ 32B GenSelect |
83.3 |
70.0 |
62.8 |
8.3 |
DeepSeek-R1-Distill-Qwen-7B |
54.4 (80.0) |
38.6 (53.3) |
30.6 (42.9) |
3.3 (5.2) |
OpenMath-Nemotron-7B CoT |
74.8 (80.0) |
61.2 (76.7) |
49.7 (57.7) |
6.6 (6.6) |
OpenMath-Nemotron-7B TIR |
72.9 (83.3) |
57.5 (76.7) |
54.6 (66.3) |
7.8 (10.8) |
+ Self GenSelect |
86.7 |
76.7 |
68.4 |
11.5 |
+ 32B GenSelect |
86.7 |
76.7 |
69.9 |
11.9 |
DeepSeek-R1-Distill-Qwen-14B |
65.8 (80.0) |
48.4 (60.0) |
40.1 (52.0) |
4.2 (4.8) |
OpenMath-Nemotron-14B-MIX (kaggle) |
73.7 (86.7) |
57.9 (73.3) |
50.5 (64.8) |
5.7 (6.5) |
OpenMath-Nemotron-14B CoT |
76.3 (83.3) |
63.0 (76.7) |
52.1 (60.7) |
7.5 (7.6) |
OpenMath-Nemotron-14B TIR |
76.3 (86.7) |
61.3 (76.7) |
58.6 (70.9) |
9.5 (11.5) |
+ Self GenSelect |
86.7 |
76.7 |
72.4 |
14.1 |
+ 32B GenSelect |
90.0 |
76.7 |
71.9 |
13.7 |
QwQ-32B |
78.1 (86.7) |
66.5 (76.7) |
55.9 (63.3) |
9.0 (9.5) |
DeepSeek-R1-Distill-Qwen-32B |
66.9 (83.3) |
51.8 (73.3) |
39.9 (51.0) |
4.8 (6.0) |
OpenMath-Nemotron-32B CoT |
76.5 (86.7) |
62.5 (73.3) |
53.0 (59.2) |
8.3 (8.3) |
OpenMath-Nemotron-32B TIR |
78.4 (93.3) |
64.2 (76.7) |
59.7 (70.9) |
9.2 (12.5) |
+ Self GenSelect |
93.3 |
80.0 |
73.5 |
15.7 |
DeepSeek-R1 |
79.1 (86.7) |
64.3 (73.3) |
53.0 (59.2) |
10.5 (11.4) |
私たちは OpenMath-Nemotron-14Bのバージョン を使用して、AIMO-2 Kaggleコンペティション で1位を獲得しました!
✨ 主な機能
- 商用利用可能な数学モデルです。
- 人気の数学的ベンチマークで最先端の結果を達成しています。
- 複数の推論モード(CoT、TIR、GenSelect)をサポートしています。
📚 ドキュメント
結果の再現
データとモデルを生成するために使用したパイプラインは完全にオープンソース化されています!
データ生成を含むすべての結果を完全に再現するための すべての手順 を提供しています。
💻 使用例
基本的な使用法
モデルをCoTモードで推論するには、以下のコードスニペットを使用できます。
import transformers
import torch
model_id = "nvidia/OpenMath-Nemotron-7B"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{
"role": "user",
"content": "Solve the following math problem. Make sure to put the answer (and only answer) inside \\boxed{}.\n\n" +
"What is the minimum value of $a^2+6a-7$?"},
]
outputs = pipeline(
messages,
max_new_tokens=4096,
)
print(outputs[0]["generated_text"][-1]['content'])
高度な使用法
TIRまたはGenSelectモードで推論を実行する場合は、NeMo-Skillsのリファレンス実装 の使用を強くおすすめします。
なお、これらのモデルは一般的なデータで命令調整されていないため、数学の領域以外では良い回答を提供しない可能性があります。
📄 ライセンス
ライセンス/利用規約
このモデルの使用は CC-BY-4.0 によって管理されています。追加情報については、Apache License Version 2.0 を参照してください。
展開地域
グローバル
ユースケース
このモデルは、数学的推論の分野での研究を促進することを目的としています。
リリース日
Huggingface 2025年4月23日
モデルアーキテクチャ
属性 |
详情 |
モデルタイプ |
Transformerデコーダーのみの言語モデル |
ネットワークアーキテクチャ |
Qwen2.5 |
開発元モデル |
Qwen2.5-1.5B |
モデルパラメータ数 |
15億 |
入力
属性 |
详情 |
入力タイプ |
テキスト |
入力形式 |
文字列 |
入力パラメータ |
1次元 (1D) |
入力に関連するその他の特性 |
最大131,072トークンのコンテキスト長 |
出力
属性 |
详情 |
出力タイプ |
テキスト |
出力形式 |
文字列 |
出力パラメータ |
1次元 (1D) |
出力に関連するその他の特性 |
最大131,072トークンのコンテキスト長 |
私たちのAIモデルは、NVIDIA GPUアクセラレートシステムでの実行を設計および/または最適化されています。NVIDIAのハードウェア(GPUコアなど)とソフトウェアフレームワーク(CUDAライブラリなど)を活用することで、CPUのみのソリューションと比較して、高速なトレーニングと推論時間を実現しています。
ソフトウェア統合
属性 |
详情 |
ランタイムエンジン |
Tensor RT / Triton |
サポートされるハードウェアマイクロアーキテクチャ互換性 |
NVIDIA Ampere、NVIDIA Hopper |
推奨オペレーティングシステム |
Linux |
モデルバージョン
倫理的な考慮事項
NVIDIAは、信頼できるAIは共有の責任であると考えており、幅広いAIアプリケーションの開発を可能にするためのポリシーと実践を確立しています。サービス利用規約に従ってダウンロードまたは使用する場合、開発者は内部のモデルチームと協力して、このモデルが関連する業界やユースケースの要件を満たし、予期しない製品の誤用に対応することを確認する必要があります。
このモデルの倫理的な考慮事項の詳細については、モデルカード++の 説明可能性、バイアス、安全性とセキュリティ、および プライバシー のサブカードを参照してください。
セキュリティの脆弱性またはNVIDIA AIに関する懸念事項は、こちら から報告してください。
引用
もし私たちの研究が役に立った場合は、引用を検討してください!
@article{moshkov2025aimo2,
title = {AIMO-2 Winning Solution: Building State-of-the-Art Mathematical Reasoning Models with OpenMathReasoning dataset},
author = {Ivan Moshkov and Darragh Hanley and Ivan Sorokin and Shubham Toshniwal and Christof Henkel and Benedikt Schifferer and Wei Du and Igor Gitman},
year = {2025},
journal = {arXiv preprint arXiv:2504.16891}
}