
Mistral Small (Feb '24)
Mistral AI于2024年2月发布的小型模型,在效率和性能之间找到了良好平衡。作为Mistral早期的重要版本,展示了该公司在小型高效模型方面的技术实力。具备良好的多语言支持和推理能力,为后续的Small系列发展奠定了基础。适合资源受限但需要可靠AI能力的应用场景。
智力(较弱)
速度(较快)
输入支持模态
否
是否推理模型
32,768
上下文窗口
32,768
最大输出令牌数
-
知识截止
定价
¥1.44 /M tokens
输入
¥4.32 /M tokens
输出
¥10.8 /M tokens
混合价格
快速简易对比
Codestral (Jan '25)
¥0.2
Codestral-Mamba
Devstral
¥0.1
基础参数
Mistral Small (Feb '24)的技术参数
参数数量
22,000.0M
上下文长度
32.77k tokens
训练数据截止
开源分类
Proprietary
多模态支持
文本
吞吐量
0
发布日期
2024-02-26
响应速度
183.73,997 tokens/s
基准测试得分
以下是Mistral Small (Feb '24)在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
22.92
大语言模型智能水平
编码指数
12.27
AI模型在编码任务上的能力表现的指标
数学指数
28.43
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
MMLU Pro
41.9
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
GPQA
30.2
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
HLE
4.4
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
LiveCodeBench
11.1
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
SciCode
13.4
模型在科学计算或特定科学领域的代码生成方面的能力
HumanEval
79
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
Math 500 评分
56.2
前500道更大型、更知名的数学基准测试评分
AIME 评分
0.7
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
GPT 5 Mini
openai

¥1.8
输入tokens/百万
¥14.4
输出tokens/百万
400k
上下文长度
GPT 5 Standard
openai

¥63
输入tokens/百万
¥504
输出tokens/百万
400k
上下文长度
GPT 5 Nano
openai

¥0.36
输入tokens/百万
¥2.88
输出tokens/百万
400k
上下文长度
GPT 5
openai

¥9
输入tokens/百万
¥72
输出tokens/百万
400k
上下文长度
GLM 4.5
chatglm

¥0.43
输入tokens/百万
¥1.01
输出tokens/百万
131k
上下文长度
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
输入tokens/百万
¥2.16
输出tokens/百万
1M
上下文长度
Gemini 1.0 Pro
google

¥3.6
输入tokens/百万
¥10.8
输出tokens/百万
33k
上下文长度
Qwen2.5 Coder Instruct 32B
alibaba

¥0.65
输入tokens/百万
¥0.65
输出tokens/百万
131k
上下文长度