Llama 3.3 Nemotron Super 49B V1 (Reasoning)
L

Llama 3.3 Nemotron Super 49B V1 (Reasoning)

Llama-3.3-Nemotron-Super-49B-v1是從Meta Llama-3.3.70B-Instruct派生出來的大型語言模型(LLM)。它經過推理、聊天、RAG和工具調用的後期訓練,在準確性和效率之間實現了平衡(針對單個H100進行了優化)。它經歷了多階段的崗位培訓,包括SFT和RL(RLOO、RPO)。
智能(中等)
速度(慢)
輸入支持模態
是否推理模型
128,000
上下文窗口
131,072
最大輸出tokens
2023-12-31
知識截止

定價

- /M tokens
輸入
- /M tokens
輸出
- /M tokens
混合價格

快速簡單對比

輸入

輸出

Llama 3.3 Nemotron Super 49B v1
Llama 3.1 Nemotron Instruct 70B
Llama 3.1 Nemotron Nano 4B v1.1 (Reasoning)

基本參數

Llama 3.3 Nemotron Super 49B v1 (Reasoning)技術參數
參數數量
49,900.0M
上下文長度
128.00k tokens
訓練數據截止日期
2023-12-31
開源類別
Open Weights (Permissive License)
多模態支持
僅文本
吞吐量
發布日期
2025-03-18
響應速度
0 tokens/s

基準測試分數

以下是Llama 3.3 Nemotron Super 49B v1 (Reasoning)在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
51.16
大語言模型智能水平
編程指數
27.98
AI模型在編程任務上的表現指標
數學指數
77.1
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
78.5
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
64.3
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
6.5
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
27.7
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
28.2
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
95.9
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
95.9
在前500個較大、更知名的數學基準測試上的分數
AIME分數
58.3
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase