G

Gerpt2 Large

benjaminによって開発
GerPT2はドイツ語版GPT2の大規模バージョンで、CC - 100コーパスとドイツ語ウィキペディアを基に訓練され、ドイツ語テキスト生成タスクで優れた性能を発揮します。
ダウンロード数 75
リリース時間 : 3/2/2022

モデル概要

GerPT2はGPT2アーキテクチャに基づくドイツ語言語モデルで、大規模と小規模の2つのバージョンを提供し、ドイツ語テキスト生成タスクに特化しています。

モデル特徴

優れたドイツ語テキスト生成能力
CC - 100とドイツ語ウィキペディアのデータセットでの困惑度は、同類のドイツ語GPT2モデルよりも著しく優れています。
大規模ドイツ語コーパスに基づく訓練
CC - 100コーパスのすべてのドイツ語データとドイツ語ウィキペディアを使用して訓練されます。
最適化された訓練戦略
OneCycle学習率スケジューリングと重み減衰を用いたAdamWオプティマイザを採用し、2サイクル訓練します。

モデル能力

ドイツ語テキスト生成
ドイツ語テキスト続き生成
ドイツ語言語理解

使用事例

コンテンツ作成
ドイツ語記事生成
プロンプトに基づいて首尾一貫したドイツ語記事を生成します。
生成されたテキストの品質が高く、困惑度が低いです。
ドイツ語対話システム
ドイツ語チャットボットの構築に使用します。
教育
ドイツ語学習支援
ドイツ語学習教材と練習問題を生成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase