
Llama 3.1 Nemotron Nano 4B V1.1 (Reasoning)
NVIDIA 與 Meta 合作開發的緊湊推理增強模型,僅 4B 參數但具備強大的推理能力。經過 NVIDIA 優化,在效率和性能之間達到良好平衡。專門針對推理任務進行增強,能夠在資源受限的環境中提供可靠的邏輯分析和問題解決能力,適合邊緣計算和行動裝置上的推理應用。
智能(中等)
速度(慢)
輸入支持模態
否
是否推理模型
128,000
上下文窗口
131,072
最大輸出tokens
2023-12-31
知識截止
定價
- /M tokens
輸入
- /M tokens
輸出
- /M tokens
混合價格
快速簡單對比
Llama 3.3 Nemotron Super 49B v1
Llama 3.1 Nemotron Instruct 70B
Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)
基本參數
Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)技術參數
參數數量
8,000.0M
上下文長度
128.00k tokens
訓練數據截止日期
2023-12-31
開源類別
Open Weights (Permissive License)
多模態支持
僅文本
吞吐量
發布日期
2025-05-20
響應速度
0 tokens/s
基準測試分數
以下是Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
45.01
大語言模型智能水平
編程指數
29.69
AI模型在編程任務上的表現指標
數學指數
82.67
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
55.6
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
40.8
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
5.1
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
49.3
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
10.1
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
-
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
94.7
在前500個較大、更知名的數學基準測試上的分數
AIME分數
70.7
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
GPT 5 Mini
openai

¥1.8
輸入tokens/百萬
¥14.4
輸出tokens/百萬
400k
上下文長度
GPT 5 Standard
openai

¥63
輸入tokens/百萬
¥504
輸出tokens/百萬
400k
上下文長度
GPT 5 Nano
openai

¥0.36
輸入tokens/百萬
¥2.88
輸出tokens/百萬
400k
上下文長度
GPT 5
openai

¥9
輸入tokens/百萬
¥72
輸出tokens/百萬
400k
上下文長度
GLM 4.5
chatglm

¥0.43
輸入tokens/百萬
¥1.01
輸出tokens/百萬
131k
上下文長度
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
輸入tokens/百萬
¥2.16
輸出tokens/百萬
1M
上下文長度
Gemini 1.0 Pro
google

¥3.6
輸入tokens/百萬
¥10.8
輸出tokens/百萬
33k
上下文長度
GPT 4
openai

¥216
輸入tokens/百萬
¥432
輸出tokens/百萬
8192
上下文長度