G

Gemini 1.0 Pro

Gemini 1.0 Pro是一个自然语言处理(NLP)模型,专为多回合文本和代码聊天以及代码生成等任务而设计。它支持文本输入和输出,非常适合自然语言任务。该模型针对处理复杂的对话和生成代码片段进行了优化。它提供可调整的安全设置并支持函数调用,但不支持JSON模式、JSON模式或系统指令。最新的稳定版本是gemini-1.0-pro-001,最后一次更新是在2024年2月。
智力(弱)
速度(慢)
输入支持模态
是否推理模型
32,768
上下文窗口
8,192
最大输出令牌数
2024-02-01
知识截止
定价
¥3.6 /M tokens
输入
¥10.8 /M tokens
输出
¥5.4 /M tokens
混合价格
快速简易对比
Gemini 2.0 Pro Experimental (Feb '25)
Gemini 1.5 Pro (May '24)
¥2.5
Gemini 1.5 Pro (Sep '24)
¥2.5
基础参数
GPT-4.1的技术参数
参数数量
未公布
上下文长度
32.77k tokens
训练数据截止
2024-02-01
开源分类
Proprietary
多模态支持
文本
吞吐量
120
发布日期
2023-12-06
响应速度
0 tokens/s
基准测试得分
以下是claude-monet在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
2059
大语言模型智能水平
编码指数
1167
AI模型在编码任务上的能力表现的指标
数学指数
-
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
MMLU Pro
43.1
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
GPQA
27.7
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
HLE
4.6
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
LiveCodeBench
11.6
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
SciCode
11.7
模型在科学计算或特定科学领域的代码生成方面的能力
HumanEval
2.2
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
Math 500 评分
40.3
前500道更大型、更知名的数学基准测试评分
AIME 评分
0.7
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase