G

Gerpt2

benjaminによって開発
GerPT2はGPT2アーキテクチャに基づくドイツ語大規模言語モデルで、CC-100とドイツ語ウィキペディアデータセットで訓練され、同類のドイツ語GPT2モデルよりも優れた性能を発揮します。
ダウンロード数 48
リリース時間 : 3/2/2022

モデル概要

ドイツ語版GPT2大規模モデルで、ドイツ語テキスト生成タスクをサポートし、パープレキシティ指標で優れた性能を示します。

モデル特徴

卓越したドイツ語性能
CC-100とドイツ語ウィキペディアデータセットでのパープレキシティ指標がdbmdz/german-gpt2モデルを大幅に上回る
英語からドイツ語への意味マッピング
generate_aligned_wte.pyスクリプトにより英語からドイツ語への単語埋め込みを整列させ、生成品質を向上
最適化された生成制御
bad_words_idsなどのパラメータ設定を提供し、生成テキストの終了条件を効果的に制御

モデル能力

ドイツ語テキスト生成
文脈理解
長文生成

使用事例

コンテンツ作成
ドイツ語記事生成
プロンプトに基づいて一貫性のあるドイツ語記事を生成
生成テキストは低いパープレキシティ指標を示す
言語研究
ドイツ語言語モデル研究
ドイツ語NLP研究のベースラインモデルとして
同類モデルを上回るベンチマーク性能を提供
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase