
Llama 3.1 Nemotron Nano 4B V1.1 (Reasoning)
NVIDIA と Meta が共同開発したコンパクトな推論強化モデルで、わずか 4B パラメータながら強力な推論能力を備えています。NVIDIA によって最適化されており、効率と性能のバランスが良好です。推論タスクに特化して強化されており、リソースが限られた環境でも信頼性の高い論理分析と問題解決能力を提供し、エッジコンピューティングやモバイルデバイス上の推論アプリケーションに適しています。
インテリジェンス(中程度)
速度(遅い)
入力サポートモダリティ
いいえ
推論モデルかどうか
128,000
コンテキストウィンドウ
131,072
最大出力トークン
2023-12-31
知識カットオフ
価格設定
- /M tokens
入力
- /M tokens
出力
- /M tokens
混合価格
クイック簡易比較
Llama 3.3 Nemotron Super 49B v1 (Reasoning)
Llama 3.3 Nemotron Super 49B v1
Llama 3.1 Nemotron Instruct 70B
基本パラメータ
Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)技術パラメータ
パラメータ数
8,000.0M
コンテキスト長
128.00k tokens
トレーニングデータカットオフ
2023-12-31
オープンソースカテゴリ
Open Weights (Permissive License)
マルチモーダルサポート
テキストのみ
スループット
リリース日
2025-05-20
応答速度
0 tokens/s
ベンチマークスコア
以下はLlama 3.1 Nemotron Nano 4B v1.1 (Reasoning)の様々な標準ベンチマークテストでのパフォーマンスです。これらのテストは、異なるタスクやドメインにおけるモデルの能力を評価します。
インテリジェンス指数
45.01
大規模言語モデルインテリジェンスレベル
コーディング指数
29.69
コーディングタスクにおけるAIモデルのパフォーマンス指標
数学指数
82.67
数学的問題の解決、数学的推論、または数学関連タスクの実行における能力指標
MMLU Pro
55.6
大規模マルチタスクマルチモーダル理解 - テキスト、画像、音声、ビデオの理解をテスト
GPQA
40.8
大学院物理学問題評価 - ダイヤモンド科学レベルの問題で高度な物理学知識をテスト
HLE
5.1
Hugging Face Open LLMリーダーボードにおけるモデルの包括的な平均スコア
LiveCodeBench
49.3
実世界のコード作成とプログラミングコンテスト問題解決における大規模言語モデルの能力を評価する特定の評価
SciCode
10.1
科学計算または特定の科学分野のコード生成におけるモデルの能力
HumanEval
-
特定のHumanEvalベンチマークテストセットでAIモデルが達成したスコア
Math 500スコア
94.7
最初の500の大規模でよく知られた数学ベンチマークテストのスコア
AIMEスコア
70.7
高難度の数学競技問題(特にAIMEレベル)を解決するAIモデルの能力を測定する指標
GPT 5 Mini
openai

¥1.8
入力トークン/百万
¥14.4
出力トークン/百万
400k
コンテキスト長
GPT 5 Standard
openai

¥63
入力トークン/百万
¥504
出力トークン/百万
400k
コンテキスト長
GPT 5 Nano
openai

¥0.36
入力トークン/百万
¥2.88
出力トークン/百万
400k
コンテキスト長
GPT 5
openai

¥9
入力トークン/百万
¥72
出力トークン/百万
400k
コンテキスト長
GLM 4.5
chatglm

¥0.43
入力トークン/百万
¥1.01
出力トークン/百万
131k
コンテキスト長
Gemini 1.0 Pro
google

¥3.6
入力トークン/百万
¥10.8
出力トークン/百万
33k
コンテキスト長
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
入力トークン/百万
¥2.16
出力トークン/百万
1M
コンテキスト長
GPT 4
openai

¥216
入力トークン/百万
¥432
出力トークン/百万
8192
コンテキスト長