R

Roberta Large Bne Capitel Pos

PlanTL-GOB-ESによって開発
スペイン国立図書館(BNE)のデータを基に訓練されたRoBERTa - largeモデルで、CAPITEL品詞タグ付けデータセットに対して微調整されたスペイン語の品詞タグ付けモデル
ダウンロード数 186
リリース時間 : 3/2/2022

モデル概要

このモデルはスペイン語テキストの品詞タグ付けタスクに特化しており、大規模なスペイン語コーパスで事前学習され、CAPITEL - POSデータセットで微調整されています。

モデル特徴

大規模な事前学習データ
570GBのクリーニングと重複排除されたスペイン語テキストを基に事前学習されており、データはスペイン国立図書館の2009 - 2019年のウェブクローリングデータに由来します。
高性能な品詞タグ付け
CAPITEL - POSテストセットで98.56のF1値を達成し、同類のスペイン語モデルより優れています。
専門分野の最適化
IberLEF 2020 CAPITEL競技データセットを使用して微調整されており、スペイン語の専門テキストの処理に適しています。

モデル能力

スペイン語の品詞タグ付け
テキストマーキング分類
自然言語処理

使用事例

テキスト分析
ニューステキスト分析
スペイン語のニューステキストの品詞分布を分析します。
ニューステキスト内の様々な品詞を正確に識別します。
学術研究
スペイン語の言語学研究や教育に使用されます。
専門レベルの品詞タグ付け結果を提供します。
自然言語処理アプリケーション
情報抽出システム
情報抽出システムの前処理コンポーネントとして使用されます。
後続の処理タスクの精度を向上させます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase