
Deepseek R1 (Jan '25)
DeepSeek於2025年1月發佈的R1推理模型,專門針對複雜推理任務進行優化。採用先進的推理架構,在數學推理、邏輯分析和問題解決方面表現出色。雖然推理速度相對較慢(約25 tokens/秒),但在純數學基準測試中展現了優異的推理能力。適合需要高質量推理和深度分析的專業應用。
智能(中等)
速度(慢)
輸入支持模態
否
是否推理模型
128,000
上下文窗口
131,072
最大輸出tokens
-
知識截止
定價
¥4.03 /M tokens
輸入
¥15.98 /M tokens
輸出
¥17.01 /M tokens
混合價格
快速簡單對比
DeepSeek-V2.5
¥0.14
DeepSeek-V3
¥0.27
DeepSeek R1 Distill Qwen 14B
基本參數
DeepSeek R1 (Jan '25)技術參數
參數數量
671,000.0M
上下文長度
128.00k tokens
訓練數據截止日期
開源類別
Open Weights (Permissive License)
多模態支持
僅文本
吞吐量
9
發布日期
2025-01-20
響應速度
0 tokens/s
基準測試分數
以下是DeepSeek R1 (Jan '25)在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
60.22
大語言模型智能水平
編程指數
48.7
AI模型在編程任務上的表現指標
數學指數
82.47
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
84.4
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
8100
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
7160
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
7330
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
35.7
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
97.7
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
96.6
在前500個較大、更知名的數學基準測試上的分數
AIME分數
8750
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
精選推薦AI模型
GPT 5 Mini
openai

¥1.8
輸入tokens/百萬
¥14.4
輸出tokens/百萬
400k
上下文長度
GPT 5 Standard
openai

¥63
輸入tokens/百萬
¥504
輸出tokens/百萬
400k
上下文長度
GPT 5 Nano
openai

¥0.36
輸入tokens/百萬
¥2.88
輸出tokens/百萬
400k
上下文長度
GPT 5
openai

¥9
輸入tokens/百萬
¥72
輸出tokens/百萬
400k
上下文長度
GLM 4.5
chatglm

¥0.43
輸入tokens/百萬
¥1.01
輸出tokens/百萬
131k
上下文長度
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
輸入tokens/百萬
¥2.16
輸出tokens/百萬
1M
上下文長度
Gemini 1.0 Pro
google

¥3.6
輸入tokens/百萬
¥10.8
輸出tokens/百萬
33k
上下文長度
GPT 4
openai

¥216
輸入tokens/百萬
¥432
輸出tokens/百萬
8192
上下文長度