G

Gpt Neo 2.7B

EleutherAIによって開発
GPT-Neo 2.7BはEleutherAIがGPT - 3アーキテクチャを再現した27億パラメータのTransformer言語モデルで、Pileデータセットで訓練されました。
ダウンロード数 52.68k
リリース時間 : 3/2/2022

モデル概要

Transformerアーキテクチャに基づく自己回帰言語モデルで、テキスト生成タスクに優れ、さまざまな自然言語処理シーンに適用できます。

モデル特徴

大規模事前訓練
4200億トークンのPileデータセットで訓練され、強力な言語理解能力を持っています。
オープンソースモデル
MITライセンスを採用し、商用および研究用途が許可されています。
多領域適応
科学、物理推論、言語理解などの複数の領域で良好な性能を発揮します。

モデル能力

テキスト生成
言語理解
文脈推論

使用事例

コンテンツ作成
自動執筆
プロンプトに基づいて首尾一貫したテキストコンテンツを生成します。
50文字以上の首尾一貫したテキストを生成できます。
教育研究
科学質問応答
科学および数学関連の質問に答えます。
MathQAで24.72%の正解率を達成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase