G

Gpt J 6b

由EleutherAI開發
GPT-J 6B是基於Mesh Transformer JAX框架訓練的60億參數自迴歸語言模型,採用與GPT-2/3相同的分詞器。
下載量 297.31k
發布時間 : 3/2/2022

模型概述

GPT-J 6B是一個大型Transformer語言模型,擅長根據提示生成連貫文本,主要用於文本生成任務。

模型特點

旋轉位置嵌入(RoPE)
採用旋轉位置嵌入技術,增強了模型對長序列位置信息的處理能力
大規模訓練
在TPU v3-256 pod上訓練了4020億標記,共383,500步
高性能
在多項基準測試中表現優異,接近GPT-3 6.7B版本性能

模型能力

文本生成
語言建模
文本補全

使用案例

文本生成
創意寫作
生成故事、詩歌等創意文本內容
可生成連貫的英語文本段落
代碼補全
輔助程序員完成代碼片段
可生成基本正確的編程代碼
研究用途
語言模型研究
用於研究大規模語言模型的行為和特性
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase