G

Gpt Neo 1.3B

EleutherAIによって開発
GPT - Neo 1.3BはEleutherAIによって開発された13億パラメータの自己回帰型言語モデルで、GPT - 3アーキテクチャに基づいて設計され、テキスト生成タスクに長けています。
ダウンロード数 208.93k
リリース時間 : 3/2/2022

モデル概要

Transformerアーキテクチャに基づく大規模言語モデルで、主にオープンドメインのテキスト生成と言語理解タスクに使用されます。

モデル特徴

大規模事前学習
800GBのPileデータセットで学習され、多様なテキスト内容が含まれています。
オープンソースでアクセス可能
GPT - 3のオープンソース代替案として、MITライセンスの下で完全なモデルウェイトを提供します。
強力なコンテキスト理解
Lambadaなどの言語理解タスクで、同規模のGPT - 2モデルよりも優れた性能を発揮します。

モデル能力

オープンドメインテキスト生成
言語理解
テキスト続き生成
質問応答生成

使用事例

コンテンツ作成
クリエイティブライティング支援
プロンプトに基づいて物語、詩などのクリエイティブなテキストを生成します。
連続した段落レベルのテキストを生成できます。
技術文書生成
簡単な説明に基づいて技術文書の初稿を自動生成します。
教育研究
言語モデル研究
自然言語処理研究の基礎モデルとして使用されます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase