G

Gpt2 Small Indonesian 522M

cahyaによって開発
これはインドネシア語ウィキペディアデータで事前学習されたGPT2-smallモデルで、インドネシア語テキスト生成タスクに特化しています。
ダウンロード数 1,900
リリース時間 : 3/2/2022

モデル概要

このモデルは522MBのインドネシア語ウィキペディアデータで因果的言語モデリング(CLM)目標を用いて事前学習され、インドネシア語テキスト生成をサポートします。モデルは大文字小文字を区別せず、様々な下流NLPタスクに適用可能です。

モデル特徴

インドネシア語最適化
インドネシア語に特化して事前学習されており、インドネシア語テキスト生成タスクで良好なパフォーマンスを発揮
大文字小文字を区別しない
モデルは大文字小文字を区別せず、'indonesia'と'Indonesia'は同じとみなされる
効率的なトークン化
バイトレベルのバイトペアエンコーディング(BPE)を採用、語彙数52,000でUnicode文字を効果的に処理可能

モデル能力

インドネシア語テキスト生成
言語モデル特徴抽出
文脈理解

使用事例

教育/文化
歴史テキスト生成
インドネシア歴史に関する一貫性のあるテキストを生成
例示されているMajapahit王国に関する歴史記述の生成
コンテンツ作成
インドネシア語コンテンツ自動生成
インドネシア語記事やストーリーなどの作成を補助
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase