G

Gpt J 6b

EleutherAIによって開発
GPT-J 6BはMesh Transformer JAXフレームワークに基づいて訓練された60億パラメータの自己回帰言語モデルで、GPT-2/3と同じトークナイザーを採用しています。
ダウンロード数 297.31k
リリース時間 : 3/2/2022

モデル概要

GPT-J 6Bは大型のTransformer言語モデルで、プロンプトに基づいて首尾一貫したテキストを生成することに長けており、主にテキスト生成タスクに使用されます。

モデル特徴

回転位置埋め込み(RoPE)
回転位置埋め込み技術を採用し、モデルの長シーケンスの位置情報の処理能力を強化しました。
大規模訓練
TPU v3 - 256 pod上で4020億トークンを383,500ステップ訓練しました。
高性能
複数のベンチマークテストで優れた性能を発揮し、GPT - 3 6.7Bバージョンの性能に近いです。

モデル能力

テキスト生成
言語モデリング
テキスト補完

使用事例

テキスト生成
創作執筆
物語、詩などの創作的なテキストコンテンツを生成します。
首尾一貫した英語のテキスト段落を生成できます。
コード補完
プログラマーがコード断片を完成させるのを支援します。
基本的に正しいプログラミングコードを生成できます。
研究用途
言語モデル研究
大規模言語モデルの動作と特性を研究するために使用されます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase