G

Gpt2 Small

ComComによって開発
GPT-2はTransformerアーキテクチャに基づく自己回帰型言語モデルで、自己教師付き学習により大規模な英語コーパスで事前学習され、テキスト生成タスクに長けています。
ダウンロード数 1,032
リリース時間 : 10/28/2022

モデル概要

GPT-2は自己教師付き方式で英語コーパス上で事前学習されたTransformerモデルで、主にテキスト生成と特徴抽出に使用されます。

モデル特徴

自己教師付き学習
大量の英語データで自己教師付き事前学習を行い、英語の内在的な表現を学習します。
テキスト生成能力
プロンプトに基づいて首尾一貫したテキスト内容を生成することに長けています。
特徴抽出
下流タスクに有用なテキスト特徴を抽出することができます。

モデル能力

テキスト生成
言語モデリング
特徴抽出

使用事例

コンテンツ作成
自動テキスト続き生成
与えられた冒頭に基づいて首尾一貫した後続のテキストを自動生成します。
多様なテキスト内容を生成し、創作的な執筆支援に利用できます。
教育
言語学習支援
英語学習教材やサンプル文を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase