G

Gpt2 Distil Chinese Cluecorpussmall

uerによって開発
CLUECorpusSmallで事前学習された中国語GPT2軽量モデル、パラメータ規模は6層/768隠れ層、中国語テキスト生成タスクに適しています
ダウンロード数 1,043
リリース時間 : 3/2/2022

モデル概要

このモデルはGPT2の中国語軽量版で、中国語テキスト生成タスクに特化して最適化されており、一貫性のある中国語テキストを生成できます

モデル特徴

軽量設計
わずか6層のTransformer構造で、標準GPT2モデルより軽量、リソースが限られた環境に適しています
中国語最適化
中国語コーパスに特化して事前学習されており、生成される中国語テキストは言語習慣により適合します
2段階トレーニング
128と1024の2つのシーケンス長で段階的にトレーニングし、モデルの異なる長さのテキスト処理能力を向上させます

モデル能力

中国語テキスト生成
テキスト継続
コンテンツ作成

使用事例

コンテンツ作成
ストーリー継続
与えられた冒頭に基づいて一貫性のあるストーリーの続きを自動生成
文脈に合った中国語ストーリー内容を生成
記事アウトライン生成
キーワードに基づいて記事のアウトラインや要点を自動生成
構造的に合理的な記事フレームワークを生成
対話システム
チャットボット応答生成
ユーザー入力に基づいて自然で流暢な応答を生成
文脈に合った対話応答を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase