R

Roberta Base Indonesian 522M

cahyaによって開発
RoBERTa-baseアーキテクチャに基づくインドネシア語の事前学習モデルで、インドネシア語のウィキペディアデータを使用して学習され、大文字小文字を区別しません。
ダウンロード数 454
リリース時間 : 3/2/2022

モデル概要

これはRoBERTa-baseアーキテクチャに基づくモデルで、インドネシア語のウィキペディアデータを使用して、マスク言語モデリング(MLM)の目標で事前学習されています。このモデルは大文字小文字を区別せず、インドネシア語のテキスト処理タスクに適しています。

モデル特徴

大文字小文字の区別なし
モデルは大文字小文字を区別せず、例えば「indonesia」と「Indonesia」は同じと見なされます。
RoBERTaアーキテクチャに基づく
RoBERTa-baseアーキテクチャを採用し、元のBERTの学習方法を最適化しています。
インドネシア語専用
インドネシア語に特化して事前学習されており、インドネシア語のテキスト処理タスクに適しています。

モデル能力

マスク言語モデリング
テキスト特徴抽出
インドネシア語テキスト処理

使用事例

テキスト処理
マスク予測
テキスト内のマスクされた単語を予測する
インドネシア語のテキスト内の欠落した単語を正確に予測できます
テキスト特徴抽出
テキストのベクトル表現を取得する
下流のNLPタスクの特徴入力に使用できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase