Claude 4 Opus (Extended Thinking)
C

Claude 4 Opus (Extended Thinking)

Anthropic 最先進的尖端推理模型,具備擴展思考能力,可以顯示詳細的思維過程。在 SWE-bench 達到 72.5%(並行計算下 79.4%),AIME 2025 數學競賽達到 90% 準確率。支援思考過程中的工具使用,被認為是世界最佳程式設計模型。適合需要複雜推理和高品質程式碼生成的專業應用。
智能(較強)
速度(較慢)
輸入支持模態
是否推理模型
200,000
上下文窗口
128,000
最大輸出tokens
-
知識截止

定價

¥108 /M tokens
輸入
¥540 /M tokens
輸出
¥216 /M tokens
混合價格

快速簡單對比

輸入

輸出

Claude 3.5 Sonnet (June '24)
Claude Opus 4.1
¥15
Claude 3.5 Haiku
¥0.8

基本參數

Claude 4 Opus (Extended Thinking)技術參數
參數數量
未公布
上下文長度
200.00k tokens
訓練數據截止日期
開源類別
Proprietary
多模態支持
文本、圖像
吞吐量
120
發布日期
2025-05-22
響應速度
64.8,139 tokens/s

基準測試分數

以下是Claude 4 Opus (Extended Thinking)在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
64.43
大語言模型智能水平
編程指數
51.71
AI模型在編程任務上的表現指標
數學指數
86.93
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
87.3
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
79.6
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
11.7
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
63.6
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
39.8
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
-
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
98.2
在前500個較大、更知名的數學基準測試上的分數
AIME分數
75.7
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase