G

Gpt2 Small Indonesian

flax-communityによって開発
因果的言語モデリング目標に基づいて事前学習されたインドネシア語生成モデル、Flaxフレームワークを使用してTPUv3-8でトレーニング
ダウンロード数 290
リリース時間 : 3/2/2022

モデル概要

これはGPT-2アーキテクチャに基づく小型のインドネシア語テキスト生成モデルで、インドネシア語テキスト生成タスクに適しています。モデルはOSCAR、mc4、ウィキペディアのインドネシア語コンテンツでトレーニングされており、一貫性のあるインドネシア語テキストを生成するために使用できます。

モデル特徴

インドネシア語最適化
インドネシア語テキストに特化してトレーニングおよび最適化されており、高い生成品質を実現
軽量モデル
小型GPT-2モデルで、リソースが限られた環境での展開に適しています
マルチフレームワークサポート
PyTorch、TensorFlow、Flax/JAXフレームワークをサポート

モデル能力

インドネシア語テキスト生成
テキスト継続
対話生成

使用事例

コンテンツ作成
詩の生成
冒頭に基づいてインドネシア語の詩を生成
感情豊かな詩の継続能力を示す例
ストーリー作成
一貫性のあるインドネシア語の短編ストーリーを生成
コンテキストの一貫性を保ちながら複数段落のテキストを生成可能
教育
言語学習支援
インドネシア語学習の例文を生成
文法的に正しい模範文を生成可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase