R

Roberta Hindi

flax-communityによって開発
大規模なヒンディー語データで事前学習されたRoBERTaモデル、マスク言語モデリングタスクをサポート
ダウンロード数 212
リリース時間 : 3/2/2022

モデル概要

これはヒンディー語データで事前学習されたRoBERTaモデルで、マスク言語モデリング(MLM)目標で訓練されており、テキスト補完などの自然言語処理タスクに使用可能です。

モデル特徴

大規模ヒンディー語事前学習
mc4、oscar、indic-nlpなどの大規模ヒンディー語データセットを統合して事前学習
動的マスキング戦略
15%の動的マスキング比率を採用、うち80%は<mask>に置換、10%はランダム置換、10%はそのまま保持
複数データセット統合
ニュース、レビュー、ウィキデータなど複数の高品質ヒンディー語データセットを統合

モデル能力

ヒンディー語テキスト補完
ヒンディー語テキスト理解
ヒンディー語言語モデル推論

使用事例

テキスト処理
テキスト自動補完
ヒンディー語文章の欠落部分を自動補完
例に示す通り'सफर'(旅)、'पल'(瞬間)などの適切な語彙を正確に予測可能
感情分析
製品レビュー分析
ヒンディー語製品レビューの感情傾向を分析
IITP製品レビューデータセットで75.53%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase