L

Llama 3.3 Nemotron Super 49B V1

Llama-3.3-Nemotron-Super-49B-v1是從Meta Llama-3.3.70B-Instruct派生出來的大型語言模型(LLM)。它經過推理、聊天、RAG和工具調用的後期訓練,在準確性和效率之間實現了平衡(針對單個H100進行了優化)。它經歷了多階段的崗位培訓,包括SFT和RL(RLOO、RPO)。
智能(較弱)
速度(慢)
輸入支持模態
是否推理模型
128,000
上下文窗口
131,072
最大輸出tokens
2023-12-31
知識截止
定價
- /M tokens
輸入
- /M tokens
輸出
- /M tokens
混合價格
快速簡單對比
Llama 3.3 Nemotron Super 49B v1 (Reasoning)
Llama 3.3 Nemotron Super 49B v1
Llama 3.1 Nemotron Ultra 253B v1 (Reasoning)
基本參數
GPT-4.1技術參數
參數數量
49,900.0M
上下文長度
128.00k tokens
訓練數據截止日期
2023-12-31
開源類別
Open Weights (Permissive License)
多模態支持
僅文本
吞吐量
發布日期
2025-03-18
響應速度
0 tokens/s
基準測試分數
以下是claude-monet在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
3932
大語言模型智能水平
編程指數
2548
AI模型在編程任務上的表現指標
數學指數
-
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
69.8
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
51.7
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
3.5
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
28
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
22.9
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
83.4
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
77.5
在前500個較大、更知名的數學基準測試上的分數
AIME分數
19.3
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase