Model Overview
Model Features
Model Capabilities
Use Cases
🚀 OpenReasoning-Nemotron-32B 概要
OpenReasoning-Nemotron-32Bは、大規模言語モデル(LLM)であり、Qwen2.5-32B-Instruct(参照モデル)の派生モデルです。数学、コード、科学の解決策生成に関する推論のために事後学習された推論モデルです。このモデルは、64Kトークンのコンテキスト長をサポートしています。OpenReasoningモデルには、1.5B、7B、14B、32Bのサイズがあります。
このモデルは、商用/非商用の研究用途に使用できます。
ライセンス/使用条件
支配条項:上記のモデルの使用は、Creative Commons Attribution 4.0 International License (CC-BY-4.0)に準拠します。追加情報:Apache 2.0 License
推論ベンチマークでのスコア
当社のモデルは、一連の難しい推論ベンチマークで卓越した性能を発揮しています。7B、14B、32Bのモデルは、それぞれのサイズクラスで常に新しい最先端記録を樹立しています。
モデル | 人工分析指数* | GPQA | MMLU-PRO | HLE | LiveCodeBench* | SciCode | AIME24 | AIME25 | HMMT FEB 25 |
---|---|---|---|---|---|---|---|---|---|
1.5B | 31.0 | 31.6 | 47.5 | 5.5 | 28.6 | 2.2 | 55.5 | 45.6 | 31.5 |
7B | 54.7 | 61.1 | 71.9 | 8.3 | 63.3 | 16.2 | 84.7 | 78.2 | 63.5 |
14B | 60.9 | 71.6 | 77.5 | 10.1 | 67.8 | 23.5 | 87.8 | 82.0 | 71.2 |
32B | 64.3 | 73.1 | 80.0 | 11.9 | 70.2 | 28.5 | 89.2 | 84.0 | 73.8 |
* これは人工分析知能指数の当社の推定値であり、公式のスコアではありません。
* LiveCodeBenchバージョン6、日付範囲2408 - 2505。
複数エージェントの作業の統合
OpenReasoning-Nemotronモデルは、複数の並列生成を開始し、生成的解選択(GenSelect)を介してそれらを統合する「ヘビー」モードで使用できます。この「スキル」を追加するために、元のGenSelectトレーニングパイプラインに従いますが、選択要約ではトレーニングせず、代わりにDeepSeek R1 0528 671Bの完全な推論トレースを使用します。数学問題の最良の解を選択するようにモデルをトレーニングするだけですが、驚くべきことに、この機能がコードや科学の質問に直接一般化されることがわかりました!この「ヘビー」GenSelect推論モードでは、OpenReasoning-Nemotron-32Bモデルが数学とコーディングのベンチマークでO3(High)を上回ります。
モデル | Pass@1 (Avg@64) | Majority@64 | GenSelect |
---|---|---|---|
1.5B | |||
AIME24 | 55.5 | 76.7 | 76.7 |
AIME25 | 45.6 | 70.0 | 70.0 |
HMMT Feb 25 | 31.5 | 46.7 | 53.3 |
7B | |||
AIME24 | 84.7 | 93.3 | 93.3 |
AIME25 | 78.2 | 86.7 | 93.3 |
HMMT Feb 25 | 63.5 | 83.3 | 90.0 |
LCB v6 2408 - 2505 | 63.4 | n/a | 67.7 |
14B | |||
AIME24 | 87.8 | 93.3 | 93.3 |
AIME25 | 82.0 | 90.0 | 90.0 |
HMMT Feb 25 | 71.2 | 86.7 | 93.3 |
LCB v6 2408 - 2505 | 67.9 | n/a | 69.1 |
32B | |||
AIME24 | 89.2 | 93.3 | 93.3 |
AIME25 | 84.0 | 90.0 | 93.3 |
HMMT Feb 25 | 73.8 | 86.7 | 96.7 |
LCB v6 2408 - 2505 | 70.2 | n/a | 75.3 |
HLE | 11.8 | 13.4 | 15.5 |
💻 使用例
基本的な使用法
import transformers
import torch
model_id = "nvidia/OpenReasoning-Nemotron-32B"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
# コード生成プロンプト
prompt = """You are a helpful and harmless assistant. You should think step-by-step before responding to the instruction below.
Please use python programming language only.
You must use ```python for just the final solution code block with the following format:
```python
# Your code here
{user} """
数学生成プロンプト
prompt = """Solve the following math problem. Make sure to put the answer (and only answer) inside \boxed{}.
{user}
"""
科学生成プロンプト
You can refer to prompts here -
https://github.com/NVIDIA/NeMo-Skills/blob/main/nemo_skills/prompt/config/generic/hle.yaml (HLE)
https://github.com/NVIDIA/NeMo-Skills/blob/main/nemo_skills/prompt/config/eval/aai/mcq-4choices-boxed.yaml (for GPQA)
https://github.com/NVIDIA/NeMo-Skills/blob/main/nemo_skills/prompt/config/eval/aai/mcq-10choices-boxed.yaml (MMLU-Pro)
messages = [ { "role": "user", "content": prompt.format(user="Write a program to calculate the sum of the first $N$ fibonacci numbers")}, ] outputs = pipeline( messages, max_new_tokens=64000, ) print(outputs[0]["generated_text"][-1]['content'])
## 引用
もしこのデータが役に立った場合は、以下を引用してください。
@article{ahmad2025opencodereasoning, title={OpenCodeReasoning: Advancing Data Distillation for Competitive Coding}, author={Wasi Uddin Ahmad, Sean Narenthiran, Somshubra Majumdar, Aleksander Ficek, Siddhartha Jain, Jocelyn Huang, Vahid Noroozi, Boris Ginsburg}, year={2025}, eprint={2504.01943}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2504.01943}, }
@misc{ahmad2025opencodereasoningiisimpletesttime, title={OpenCodeReasoning-II: A Simple Test Time Scaling Approach via Self-Critique}, author={Wasi Uddin Ahmad and Somshubra Majumdar and Aleksander Ficek and Sean Narenthiran and Mehrzad Samadi and Jocelyn Huang and Siddhartha Jain and Vahid Noroozi and Boris Ginsburg}, year={2025}, eprint={2507.09075}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2507.09075}, }
@misc{moshkov2025aimo2winningsolutionbuilding, title={AIMO-2 Winning Solution: Building State-of-the-Art Mathematical Reasoning Models with OpenMathReasoning dataset}, author={Ivan Moshkov and Darragh Hanley and Ivan Sorokin and Shubham Toshniwal and Christof Henkel and Benedikt Schifferer and Wei Du and Igor Gitman}, year={2025}, eprint={2504.16891}, archivePrefix={arXiv}, primaryClass={cs.AI}, url={https://arxiv.org/abs/2504.16891}, }
## 追加情報
### 展開地域
グローバル
### ユースケース
このモデルは、競技的な数学、コード、科学の問題に取り組む開発者や研究者を対象としています。ベンチマークで高いスコアを達成するために、教師あり微調整のみでトレーニングされています。
### リリース日
Huggingface [07/16/2025] via https://huggingface.co/nvidia/OpenReasoning-Nemotron-32B/
## 参照
* [2504.01943] OpenCodeReasoning: Advancing Data Distillation for Competitive Coding
* [2504.01943] OpenCodeReasoning: Advancing Data Distillation for Competitive Coding
* [2504.16891] AIMO-2 Winning Solution: Building State-of-the-Art Mathematical Reasoning Models with OpenMathReasoning dataset
## モデルアーキテクチャ
アーキテクチャタイプ:密なデコーダーのみのTransformerモデル
ネットワークアーキテクチャ:Qwen-32B-Instruct
このモデルは、Qwen2.5-32B-Instructをベースに開発され、32Bのモデルパラメータを持っています。
OpenReasoning-Nemotron-1.5Bは、Qwen2.5-1.5B-Instructをベースに開発され、1.5Bのモデルパラメータを持っています。
OpenReasoning-Nemotron-7Bは、Qwen2.5-7B-Instructをベースに開発され、7Bのモデルパラメータを持っています。
OpenReasoning-Nemotron-14Bは、Qwen2.5-14B-Instructをベースに開発され、14Bのモデルパラメータを持っています。
OpenReasoning-Nemotron-32Bは、Qwen2.5-32B-Instructをベースに開発され、32Bのモデルパラメータを持っています。
## 入力
**入力タイプ**:テキスト
**入力形式**:文字列
**入力パラメータ**:一次元(1D)
**入力に関連するその他の特性**:最大64,000出力トークンまでトレーニングされています。
## 出力
**出力タイプ**:テキスト
**出力形式**:文字列
**出力パラメータ**:一次元(1D)
**出力に関連するその他の特性**:最大64,000出力トークンまでトレーニングされています。
当社のAIモデルは、NVIDIA GPUアクセラレーションシステム上で実行するように設計および/または最適化されています。NVIDIAのハードウェア(例:GPUコア)とソフトウェアフレームワーク(例:CUDAライブラリ)を活用することで、このモデルはCPUのみのソリューションと比較して、より高速なトレーニングと推論時間を達成します。
## ソフトウェア統合
* ランタイムエンジン:NeMo 2.3.0
* 推奨ハードウェアマイクロアーキテクチャ互換性:
- NVIDIA Ampere
- NVIDIA Hopper
* 推奨/サポートされるオペレーティングシステム:Linux
## モデルバージョン
1.0 (7/16/2025)
OpenReasoning-Nemotron-32B
OpenReasoning-Nemotron-14B
OpenReasoning-Nemotron-7B
OpenReasoning-Nemotron-1.5B
## トレーニングと評価データセット
### トレーニングデータセット
OpenReasoning-Nemotron-32Bのトレーニングコーパスは、[OpenCodeReasoning](https://huggingface.co/datasets/nvidia/OpenCodeReasoning)データセット、[OpenCodeReasoning-II](https://arxiv.org/abs/2507.09075)、[OpenMathReasoning](https://huggingface.co/datasets/nvidia/OpenMathReasoning)の質問、および[Llama-Nemotron-Post-Training-Dataset](https://huggingface.co/datasets/nvidia/Llama-Nemotron-Post-Training-Dataset)の合成科学の質問で構成されています。すべての応答は、DeepSeek-R1-0528を使用して生成されています。また、Llama-Nemotron-Post-Training-Datasetの命令追従とツール呼び出しデータも変更せずに含まれています。
データ収集方法:ハイブリッド:自動、人間、合成
ラベリング方法:ハイブリッド:自動、人間、合成
特性:OpenCodeReasoningの質問(https://huggingface.co/datasets/nvidia/OpenCodeReasoning)、[OpenMathReasoning](https://huggingface.co/datasets/nvidia/OpenMathReasoning)、および[Llama-Nemotron-Post-Training-Dataset](https://huggingface.co/datasets/nvidia/Llama-Nemotron-Post-Training-Dataset)の合成科学の質問から生成された500万のDeepSeek-R1-0528応答。また、Llama-Nemotron-Post-Training-Datasetの命令追従とツール呼び出しデータも変更せずに含まれています。
### 評価データセット
モデルを包括的に評価するために、以下のベンチマークを使用しました。
#### 数学
- AIME 2024/2025
- HMMT
- BRUNO 2025
#### コード
- LiveCodeBench
- SciCode
#### 科学
- GPQA
- MMLU-PRO
- HLE
データ収集方法:ハイブリッド:自動、人間、合成
ラベリング方法:ハイブリッド:自動、人間、合成
## 推論
**加速エンジン**:vLLM、Tensor(RT)-LLM
**テストハードウェア**:NVIDIA H100-80GB
## 倫理的な考慮事項
NVIDIAは、信頼できるAIは共有の責任であると考えており、幅広いAIアプリケーションの開発を可能にするためのポリシーと実践を確立しています。サービス利用規約に従ってダウンロードまたは使用する場合、開発者は内部のモデルチームと協力して、このモデルが関連する業界やユースケースの要件を満たし、予期しない製品の誤用に対処することを確認する必要があります。
このモデルの倫理的な考慮事項の詳細については、モデルカード++の説明可能性、バイアス、安全性とセキュリティ、およびプライバシーのサブカードを参照してください。
モデルの品質、リスク、セキュリティバウンダリまたはNVIDIA AIに関する懸念事項は、[こちら](https://www.nvidia.com/en-us/support/submit-security-vulnerability/)から報告してください。
## 📄 ライセンス
GOVERNING TERMS: Use of the models listed above are governed by the [Creative Commons Attribution 4.0 International License (CC-BY-4.0)](https://creativecommons.org/licenses/by/4.0/legalcode.en). ADDITIONAL INFORMATION: [Apache 2.0 License](https://huggingface.co/Qwen/Qwen2.5-32B-Instruct/blob/main/LICENSE)



