T

Tner Xlm Roberta Base Uncased Ontonotes5

asahi417によって開発
これは固有表現認識タスクでファインチューニングされたXLM-RoBERTaモデルで、多言語テキストにおけるエンティティ認識タスクに適しています。
ダウンロード数 605
リリース時間 : 3/2/2022

モデル概要

このモデルはXLM-RoBERTaアーキテクチャをベースとしており、固有表現認識(NER)タスク向けに特別にファインチューニングされており、テキスト中の様々な固有表現を識別できます。

モデル特徴

多言語サポート
XLM-RoBERTaアーキテクチャをベースとしており、多言語テキストを処理する能力を備えています
高効率なエンティティ認識
固有表現認識タスク向けに最適化されており、テキスト中の様々なエンティティを正確に識別できます
事前学習モデルのファインチューニング
XLM-RoBERTa事前学習モデルをベースにファインチューニングされており、強力な言語理解能力を備えています

モデル能力

テキストエンティティ認識
多言語テキスト処理
シーケンスラベリング

使用事例

自然言語処理
情報抽出
非構造化テキストから人名、地名、組織名などのエンティティ情報を抽出
知識グラフ構築
知識グラフ構築の前処理ステップとして、テキスト中のキーエンティティを識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase