C

Cerebras GPT 2.7B

由 cerebras 开发
Cerebras-GPT 2.7B 是基于 Transformer 架构的语言模型,旨在助力大语言模型的研究,可作为自然语言处理等领域的基础模型。
下载量 269
发布时间 : 3/20/2023

模型简介

Cerebras-GPT 2.7B 是一个基于 Transformer 架构的语言模型,主要用于自然语言处理任务,如文本生成和语言理解。它是 Cerebras-GPT 模型家族的一部分,包含多种规模的模型,从 111M 到 13B 参数不等。

模型特点

丰富的模型家族
Cerebras-GPT 家族包含 111M、256M、590M、1.3B、2.7B、6.7B 和 13B 等多种规模的模型。
遵循缩放定律
所有模型均按照 Chinchilla 缩放定律进行训练,即每个模型参数对应 20 个令牌,实现了计算最优。
高效训练
借助 Cerebras 的权重流技术,简化了大语言模型的训练过程,实现了跨节点的高效扩展。

模型能力

文本生成
语言理解
自然语言处理

使用案例

研究
大语言模型研究
作为基础模型用于研究大语言模型的缩放定律和训练方法。
自然语言处理
文本生成
用于生成连贯的文本内容。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase