
Mixtral 8x7B Instruct
Mistral AI的经典混合专家模型,采用8个专家的7B参数架构。通过混合专家技术在保持高性能的同时实现了效率优化,每次推理只激活部分专家。指令调优版本在多种任务上都表现出色,成为混合专家模型的重要里程碑。适合需要高效多任务处理的应用场景,为后续MoE模型发展奠定了基础。
智力(弱)
速度(较慢)
输入支持模态
是
是否推理模型
32,768
上下文窗口
-
最大输出令牌数
-
知识截止
定价
- /M tokens
输入
- /M tokens
输出
¥5.04 /M tokens
混合价格
快速简易对比
Codestral (Jan '25)
¥0.2
Codestral-Mamba
Devstral
¥0.1
基础参数
Mixtral 8x7B Instruct的技术参数
参数数量
未公布
上下文长度
32.77k tokens
训练数据截止
开源分类
Open Weights (Permissive License)
多模态支持
文本
吞吐量
发布日期
2023-12-11
响应速度
83.3,547 tokens/s
基准测试得分
以下是Mixtral 8x7B Instruct在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
16.98
大语言模型智能水平
编码指数
4.67
AI模型在编码任务上的能力表现的指标
数学指数
14.97
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
MMLU Pro
38.7
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
GPQA
29.2
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
HLE
4.5
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
LiveCodeBench
6.6
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
SciCode
2.8
模型在科学计算或特定科学领域的代码生成方面的能力
HumanEval
1.2
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
Math 500 评分
29.9
前500道更大型、更知名的数学基准测试评分
AIME 评分
-
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
GPT 5 Mini
openai

¥1.8
输入tokens/百万
¥14.4
输出tokens/百万
400k
上下文长度
GPT 5 Standard
openai

¥63
输入tokens/百万
¥504
输出tokens/百万
400k
上下文长度
GPT 5 Nano
openai

¥0.36
输入tokens/百万
¥2.88
输出tokens/百万
400k
上下文长度
GPT 5
openai

¥9
输入tokens/百万
¥72
输出tokens/百万
400k
上下文长度
GLM 4.5
chatglm

¥0.43
输入tokens/百万
¥1.01
输出tokens/百万
131k
上下文长度
Gemini 2.0 Flash Lite (Preview)
google

¥0.58
输入tokens/百万
¥2.16
输出tokens/百万
1M
上下文长度
Gemini 1.0 Pro
google

¥3.6
输入tokens/百万
¥10.8
输出tokens/百万
33k
上下文长度
Qwen2.5 Coder Instruct 32B
alibaba

¥0.65
输入tokens/百万
¥0.65
输出tokens/百万
131k
上下文长度