G

Gpt2 Small Portuguese

pierreguillouによって開発
GPT - 2小型モデルを微調整したポルトガル語言語モデルで、ポルトガル語ウィキペディアで訓練され、テキスト生成などのNLPタスクをサポートします。
ダウンロード数 10.09k
リリース時間 : 3/2/2022

モデル概要

ポルトガル語テキスト生成用の言語モデルで、転移学習と微調整技術を使ってポルトガル語ウィキペディアで訓練されました。

モデル特徴

効率的な訓練
単一の32GBメモリのNVIDIA V100 GPUでわずか1日余りで訓練を完了しました。
転移学習の応用
英語で事前学習されたGPT - 2小型版を微調整し、リソースが限られた状況で任意の言語用の高度な言語モデルを開発する可能性を実証しました。
優れた性能
訓練後の正解率は37.99%、困惑度は23.76です。

モデル能力

ポルトガル語テキスト生成
言語モデルの微調整

使用事例

テキスト生成
文章の自動補完
与えられたテキストのヒントに基づいて一貫した後続の内容を生成します。
例では、ジム・ハンセンに関する一貫した説明が成功裏に生成されました。
創作執筆支援
ユーザーのポルトガル語の創作執筆を支援します。
教育
言語学習ツール
ポルトガル語学習者の練習ツールとして使用できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase