R

Roberta Base Bne

PlanTL-GOB-ESによって開発
RoBERTaアーキテクチャに基づくスペイン語のマスク言語モデルで、スペイン国立図書館の570GBのクリーンなテキストを用いて学習
ダウンロード数 28.76k
リリース時間 : 3/2/2022

モデル概要

このモデルはスペイン語用に設計されており、マスク言語モデリングタスクや下流のNLPタスクの微調整に適しています

モデル特徴

大規模コーパスによる学習
スペイン国立図書館の2009 - 2019年間の570GBの質の高いスペイン語テキストを用いて学習
専門分野への適合
スペイン語の特性に特化して最適化されており、本土の文化的文脈の理解を含む
複数のタスクのサポート
マスク予測に直接使用できるだけでなく、各種NLPタスクに微調整することもできます

モデル能力

マスク単語の予測
テキスト特徴抽出
固有表現認識
テキスト分類
質問応答システム

使用事例

テキスト理解
意味の補完
マスク記号を含む文を自動的に補完
例では文脈に合った単語を正確に予測できることが示されています
教育テクノロジー
言語学習支援
スペイン語学習教材を生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase