D

Distilgpt2 Finetuned Wikitext2

Rocketknight1によって開発
このモデルは、distilgpt2をwikitext2データセットで微調整したバージョンで、主にテキスト生成タスクに使用されます。
ダウンロード数 25
リリース時間 : 3/2/2022

モデル概要

これは微調整されたDistilGPT - 2モデルで、一般的なテキスト生成タスクに適しています。GPT - 2の軽量版をベースに、コアの生成能力を維持しながらモデルサイズを削減しています。

モデル特徴

軽量設計
DistilGPT - 2アーキテクチャをベースに、標準のGPT - 2よりも小さく高速で、大部分の言語理解能力を保持しています。
微調整最適化
wikitext2データセットで微調整され、特定分野のテキスト生成品質が向上しています。

モデル能力

テキスト生成
言語モデリング

使用事例

コンテンツ作成
自動テキスト生成
首尾一貫した段落テキストの生成に使用できます。
教育
言語学習支援
言語学習用のサンプル文や段落を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase