R

Roberta Large Bne

PlanTL-GOB-ESによって開発
スペイン国立図書館(BNE)のデータを基に学習されたRoBERTaの大型スペイン語言語モデル
ダウンロード数 1,685
リリース時間 : 3/2/2022

モデル概要

Transformerアーキテクチャに基づくスペイン語のマスク言語モデルで、RoBERTaの大型アーキテクチャを使用し、570GBのクリーンなスペイン語コーパスで学習されました。

モデル特徴

大規模なスペイン語の事前学習
スペイン国立図書館の2009 - 2019年間の570GBのクリーンで重複のないテキストを使用して学習
RoBERTaの最適化アーキテクチャ
RoBERTa - largeアーキテクチャを採用し、スペイン語に合わせて最適化されています。
多タスク適用性
質問応答、テキスト分類など、さまざまな下流のNLPタスクの微調整をサポートします。

モデル能力

マスク言語モデリング
テキスト特徴抽出
固有表現認識
テキスト分類
質問応答システム

使用事例

自然言語処理
テキスト分類
スペイン語のテキストを分類するタスク
MLDocデータセットでF1スコア0.9702
固有表現認識
スペイン語のテキスト中の固有表現を識別する
CoNLL - NERCデータセットでF1スコア0.8823
意味理解
意味類似度計算
スペイン語の文間の意味類似度を計算する
STSデータセットで総合スコア0.8411
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase