Llama 2 Chat 70B
L

Llama 2 Chat 70B

Meta Llama 2系列的最大对话版本,拥有70B参数规模。具备强大的对话能力和复杂推理性能,在多个基准测试中表现出色。通过RLHF技术优化,在保持强大能力的同时确保了输出的安全性和有用性。适合需要高质量对话AI的专业应用,能够处理复杂的对话和推理任务。
智力(弱)
速度(慢)
输入支持模态
是否推理模型
4,096
上下文窗口
-
最大输出令牌数
-
知识截止

定价

- /M tokens
输入
- /M tokens
输出
- /M tokens
混合价格

快速简易对比

输入

输出

Llama 4 Scout
¥0.08
Llama 4 Maverick
¥0.17
Llama 3.1 Instruct 405B
¥0.9

基础参数

Llama 2 Chat 70B的技术参数
参数数量
未公布
上下文长度
4,096 tokens
训练数据截止
开源分类
Open Weights (Permissive License)
多模态支持
文本
吞吐量
发布日期
2023-07-18
响应速度
0 tokens/s

基准测试得分

以下是Llama 2 Chat 70B在各种标准基准测试中的表现。这些测试评估了模型在不同任务和领域的能力。
智能指数
20
大语言模型智能水平
编码指数
-
AI模型在编码任务上的能力表现的指标
数学指数
-
解决数学问题、数学推理或执行与数学相关的任务方面的能力指标
MMLU Pro
40.6
海量多任务多模式理解-测试对文本、图像、音频和视频的理解
GPQA
32.7
研究生物理问题评估-用钻石科学级别的问题测试高级物理知识
HLE
5
模型在 Hugging Face Open LLM Leaderboard 上的综合平均得分
LiveCodeBench
9.8
特定的、专注于评估大型语言模型在真实世界代码编写和解决编程竞赛问题能力评分
SciCode
-
模型在科学计算或特定科学领域的代码生成方面的能力
HumanEval
-
AI模型在 HumanEval 这个特定的基准测试集上取得的成绩
Math 500 评分
32.3
前500道更大型、更知名的数学基准测试评分
AIME 评分
-
一个衡量AI模型在解决高难度数学竞赛问题(特指AIME级别)方面能力的指标
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase