G

Gpt2 Small Indonesian 522M

Developed by cahya
これはインドネシア語ウィキペディアデータで事前学習されたGPT2-smallモデルで、インドネシア語テキスト生成タスクに特化しています。
Downloads 1,900
Release Time : 3/2/2022

Model Overview

このモデルは522MBのインドネシア語ウィキペディアデータで因果的言語モデリング(CLM)目標を用いて事前学習され、インドネシア語テキスト生成をサポートします。モデルは大文字小文字を区別せず、様々な下流NLPタスクに適用可能です。

Model Features

インドネシア語最適化
インドネシア語に特化して事前学習されており、インドネシア語テキスト生成タスクで良好なパフォーマンスを発揮
大文字小文字を区別しない
モデルは大文字小文字を区別せず、'indonesia'と'Indonesia'は同じとみなされる
効率的なトークン化
バイトレベルのバイトペアエンコーディング(BPE)を採用、語彙数52,000でUnicode文字を効果的に処理可能

Model Capabilities

インドネシア語テキスト生成
言語モデル特徴抽出
文脈理解

Use Cases

教育/文化
歴史テキスト生成
インドネシア歴史に関する一貫性のあるテキストを生成
例示されているMajapahit王国に関する歴史記述の生成
コンテンツ作成
インドネシア語コンテンツ自動生成
インドネシア語記事やストーリーなどの作成を補助
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase