J

Japanese Roberta Base

rinnaによって開発
rinna株式会社によって訓練されたベースサイズの日本語RoBERTaモデルで、日本語テキストのマスク言語モデリングタスクに適しています。
ダウンロード数 9,375
リリース時間 : 3/2/2022

モデル概要

これはRoBERTaアーキテクチャに基づく日本語事前学習言語モデルで、主に日本語テキストのマスク単語予測タスクに使用されます。

モデル特徴

日本語専用事前学習
日本語テキストに特化して事前学習されており、日本語の言語特性に最適化されています
RoBERTaアーキテクチャベース
改良されたBERTアーキテクチャを採用し、次文予測タスクを削除し、より大きなバッチサイズとより多くのデータで訓練されています
SentencePieceトークン化
sentencepieceベースのトークナイザを使用し、日本語Wikipediaで訓練されています

モデル能力

マスク単語予測
日本語テキスト理解
文脈意味解析

使用事例

テキスト補完
日本語テキストマスク単語予測
マスクされた日本語単語を予測します
例では'オリンピック'などの単語を正確に予測しました
言語モデルファインチューニング
下流NLPタスク
様々な日本語NLPタスクのファインチューニング用のベースモデルとして使用可能です
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase