G

Gpt2 Wikitext2

dnarqqによって開発
GPT-2アーキテクチャをwikitext2データセットでファインチューニングした言語モデル
ダウンロード数 63
リリース時間 : 11/2/2023

モデル概要

このモデルはwikitext2データセットでGPT-2をファインチューニングしたバージョンで、主にテキスト生成タスクに使用されます。

モデル特徴

GPT-2ベースのファインチューニング
wikitext2データセットでGPT-2ベースモデルをファインチューニングしました
テキスト生成能力
GPT-2の強力なテキスト生成能力を継承しています

モデル能力

テキスト生成
言語モデリング

使用事例

テキスト生成
コンテンツ作成
記事執筆やストーリー作成などの補助に使用可能
対話システム
対話システムの生成コンポーネントとして使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase