I

Indonesian Roberta Base

flax-communityによって開発
RoBERTaアーキテクチャに基づくインドネシア語マスク言語モデルで、OSCARコーパスで学習され、検証精度62.45%
ダウンロード数 1,013
リリース時間 : 3/2/2022

モデル概要

これはインドネシア語に特化して最適化されたRoBERTaベースモデルで、特にマスク言語モデリングタスクを含む様々な自然言語処理タスクに適しています。

モデル特徴

インドネシア語専用モデル
インドネシア語に特化して最適化された事前学習モデルで、インドネシア語タスクで優れた性能を発揮します
RoBERTaアーキテクチャ採用
実績のあるRoBERTaアーキテクチャを採用し、強力な言語理解能力を提供します
効率的な学習
Google CloudのTPUv3-8仮想マシンを使用して効率的に学習され、総所要時間はわずか18時間25分でした

モデル能力

マスク言語モデリング
インドネシア語テキスト理解
特徴量抽出

使用事例

自然言語処理
テキスト補完
文中のマスクされた単語を予測します
例:'Budi sedang <mask> di sekolah.'で適切な動詞を予測できます
特徴量抽出
下流のNLPタスクのためにテキスト特徴量を抽出します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase