R

Roberta Base Bne Capitel Ner

BSC-LTによって開発
このモデルはRoBERTaアーキテクチャに基づくスペイン語の固有表現抽出モデルで、スペイン国立図書館の大規模コーパスで事前学習され、CAPITEL NERデータセットで微調整されています。
ダウンロード数 37
リリース時間 : 3/2/2022

モデル概要

このモデルはスペイン語テキストの固有表現抽出タスクに特化しており、テキスト中の人名、地名、組織名などの固有表現を識別することができます。

モデル特徴

大規模事前学習
スペイン国立図書館の570GBのクリーニング済みコーパスを使用して事前学習
専門分野の微調整
CAPITEL評価の固有表現抽出タスクのデータセットで特別に最適化
高い性能
NERタスクで0.896のF1スコアを達成

モデル能力

スペイン語テキスト処理
固有表現抽出
自然言語理解

使用事例

情報抽出
ニューステキストの固有表現抽出
スペイン語ニュースから人名、地名、組織名を抽出
高い精度での固有表現抽出
文書の自動処理
スペイン語文書中の固有表現情報を自動処理
文書処理の効率向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase