G

Gpt J 6b

Developed by EleutherAI
GPT-J 6B是基於Mesh Transformer JAX框架訓練的60億參數自迴歸語言模型,採用與GPT-2/3相同的分詞器。
Downloads 297.31k
Release Time : 3/2/2022

Model Overview

GPT-J 6B是一個大型Transformer語言模型,擅長根據提示生成連貫文本,主要用於文本生成任務。

Model Features

旋轉位置嵌入(RoPE)
採用旋轉位置嵌入技術,增強了模型對長序列位置信息的處理能力
大規模訓練
在TPU v3-256 pod上訓練了4020億標記,共383,500步
高性能
在多項基準測試中表現優異,接近GPT-3 6.7B版本性能

Model Capabilities

文本生成
語言建模
文本補全

Use Cases

文本生成
創意寫作
生成故事、詩歌等創意文本內容
可生成連貫的英語文本段落
代碼補全
輔助程序員完成代碼片段
可生成基本正確的編程代碼
研究用途
語言模型研究
用於研究大規模語言模型的行為和特性
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase