R

Roberta Ner Multilingual

julian-schelbによって開発
RoBERTaアーキテクチャに基づく多言語固有表現認識モデルで、20言語のエンティティ認識タスクをサポートします。
ダウンロード数 493
リリース時間 : 9/6/2022

モデル概要

このモデルはXLM-RoBERTaのファインチューニングにより多言語固有表現認識を実現し、人物(PER)、組織(ORG)、場所(LOC)の3種類のエンティティを認識できます。IOB2アノテーション形式を採用しています。

モデル特徴

多言語サポート
主要な欧州言語とアジア言語を含む20言語の固有表現認識をサポートします。
高精度認識
WikiANNテストセットで全体F1スコア0.883を達成し、人物認識ではF1スコア0.912の高精度を実現。
RoBERTaアーキテクチャ採用
XLM-RoBERTaの強力な事前学習能力を活用し、複数言語で優れた性能を発揮します。

モデル能力

多言語テキスト処理
固有表現認識
人物認識
組織認識
場所認識

使用事例

情報抽出
ニュース記事からのエンティティ抽出
多言語ニュース記事から自動的に人物、組織、場所情報を識別
知識グラフ構築や検索機能強化に活用可能
コンテンツ分析
ソーシャルメディアコンテンツ分析
多言語ソーシャルメディアコンテンツにおけるエンティティ言及状況を分析
話題関連エンティティやホットスポットの理解に役立つ
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase