🚀 ドイツ語用GPT2モデル
このモデルはドイツ語のテキスト生成に特化したGPT2ベースのモデルです。Ten Thousand German News Articles Datasetを使って訓練されており、高品質なドイツ語テキストを生成できます。
🚀 クイックスタート
このモデルはテキスト生成パイプラインで直接使用できます。生成にはランダム性が含まれるため、再現性のためにシードを設定します。
>>> from transformers import pipeline, set_seed
>>> generation= pipeline('text-generation', model='Tanhim/gpt2-model-de', tokenizer='Tanhim/gpt2-model-de')
>>> set_seed(42)
>>> generation("Hallo, ich bin ein Sprachmodell,", max_length=30, num_return_sequences=5)
以下は、このモデルを使用してPyTorchで与えられたテキストの特徴を取得する方法です。
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("Tanhim/gpt2-model-de")
model = AutoModelWithLMHead.from_pretrained("Tanhim/gpt2-model-de")
text = "Ersetzen Sie mich durch einen beliebigen Text, den Sie wünschen."
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
💻 使用例
基本的な使用法
>>> from transformers import pipeline, set_seed
>>> generation= pipeline('text-generation', model='Tanhim/gpt2-model-de', tokenizer='Tanhim/gpt2-model-de')
>>> set_seed(42)
>>> generation("Hallo, ich bin ein Sprachmodell,", max_length=30, num_return_sequences=5)
高度な使用法
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("Tanhim/gpt2-model-de")
model = AutoModelWithLMHead.from_pretrained("Tanhim/gpt2-model-de")
text = "Ersetzen Sie mich durch einen beliebigen Text, den Sie wünschen."
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
📚 ドキュメント
モデル情報
引用
もしあなたの研究でこのリポジトリのモデルを使用する場合は、以下のように引用を考慮してください。
@misc{GermanTransformer,
author = {Tanhim Islam},
title = {{PyTorch Based Transformer Machine Learning Model for German Text Generation Task}},
howpublished = "\url{https://huggingface.co/Tanhim/gpt2-model-de}",
year = {2021},
note = "[Online; accessed 17-June-2021]"
}
📄 ライセンス
このモデルはGPLライセンスの下で提供されています。