C

Cerebras GPT 2.7B

由cerebras開發
Cerebras-GPT 2.7B 是基於 Transformer 架構的語言模型,旨在助力大語言模型的研究,可作為自然語言處理等領域的基礎模型。
下載量 269
發布時間 : 3/20/2023

模型概述

Cerebras-GPT 2.7B 是一個基於 Transformer 架構的語言模型,主要用於自然語言處理任務,如文本生成和語言理解。它是 Cerebras-GPT 模型家族的一部分,包含多種規模的模型,從 111M 到 13B 參數不等。

模型特點

豐富的模型家族
Cerebras-GPT 家族包含 111M、256M、590M、1.3B、2.7B、6.7B 和 13B 等多種規模的模型。
遵循縮放定律
所有模型均按照 Chinchilla 縮放定律進行訓練,即每個模型參數對應 20 個令牌,實現了計算最優。
高效訓練
藉助 Cerebras 的權重流技術,簡化了大語言模型的訓練過程,實現了跨節點的高效擴展。

模型能力

文本生成
語言理解
自然語言處理

使用案例

研究
大語言模型研究
作為基礎模型用於研究大語言模型的縮放定律和訓練方法。
自然語言處理
文本生成
用於生成連貫的文本內容。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase