GPT 4o Mini Realtime (Dec '24)
GPT 4o Mini Realtime (Dec '24)
GPT-4o mini是OpenAI最新的經濟高效的小型模型,旨在使人工智能更容易獲得和負擔得起。它在文本智能和多模態推理方面表現出色,優於GPT-3.5 Turbo等先前的模型。憑藉128K令牌的上下文窗口以及對文本和視覺的支持,它提供了低成本的實時應用程序,如客戶支持聊天機器人。它的價格為每百萬輸入代幣15美分,每百萬輸出代幣60美分,比其前身便宜得多。通過內置措施和提高對安全威脅的抵抗力來優先考慮安全。
智能(弱)
速度(慢)
輸入支持模態
是
是否推理模型
128,000
上下文窗口
16,384
最大輸出tokens
2023-10-01
知識截止
定價
¥1.08 /M tokens
輸入
¥4.32 /M tokens
輸出
- /M tokens
混合價格
快速簡單對比
GPT-4.1
¥2
GPT-4.1 nano
¥0.1
GPT-4.1 mini
¥0.4
基本參數
GPT-4.1技術參數
參數數量
未公布
上下文長度
128.00k tokens
訓練數據截止日期
2023-10-01
開源類別
Proprietary
多模態支持
文本、圖像
吞吐量
92
發布日期
2024-12-17
響應速度
0 tokens/s
基準測試分數
以下是claude-monet在各種標準基準測試中的表現。這些測試評估了模型在不同任務和領域中的能力。
智能指數
-
大語言模型智能水平
編程指數
-
AI模型在編程任務上的表現指標
數學指數
-
解決數學問題、數學推理或執行數學相關任務的能力指標
MMLU Pro
-
大規模多任務多模態理解 - 測試對文本、圖像、音頻和視頻的理解
GPQA
40.2
研究生物理問題評估 - 用鑽石科學級問題測試高級物理知識
HLE
-
模型在Hugging Face開放LLM排行榜上的綜合平均分數
LiveCodeBench
-
專門評估大型語言模型在實際代碼編寫和解決編程競賽問題能力的評估
SciCode
-
模型在科學計算或特定科學領域代碼生成方面的能力
HumanEval
87.2
AI模型在特定HumanEval基準測試集上獲得的分數
Math 500分數
-
在前500個較大、更知名的數學基準測試上的分數
AIME分數
-
衡量AI模型解決高難度數學競賽問題能力的指標(特指AIME級別)
精選推薦AI模型
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
輸入tokens/百萬
¥2.16
輸出tokens/百萬
1M
上下文長度
GPT 4
openai

¥216
輸入tokens/百萬
¥432
輸出tokens/百萬
8192
上下文長度
Sonar
perplexity

-
輸入tokens/百萬
-
輸出tokens/百萬
127k
上下文長度
Claude 3 Opus
anthropic

¥108
輸入tokens/百萬
¥540
輸出tokens/百萬
200k
上下文長度
Deepseek R1
deepseek

¥3.96
輸入tokens/百萬
¥15.77
輸出tokens/百萬
128k
上下文長度
Gemma 3 4B Instruct
google

-
輸入tokens/百萬
-
輸出tokens/百萬
128k
上下文長度
Gemini 1.5 Pro (May '24)
google

¥18
輸入tokens/百萬
¥72
輸出tokens/百萬
2M
上下文長度
Llama 3.2 Instruct 11B (Vision)
meta

¥0.43
輸入tokens/百萬
¥0.43
輸出tokens/百萬
128k
上下文長度