X

Xlm Roberta Base Ft Udpos28 En

wietsedvによって開発
このモデルはXLM-RoBERTaアーキテクチャに基づく多言語品詞タグ付けモデルで、ユニバーサル依存関係v2.8データセットでファインチューニングされています。
ダウンロード数 20
リリース時間 : 3/2/2022

モデル概要

これは品詞タグ付けタスクのためのトークン分類モデルで、複数の言語をサポートし、英語で最高の性能(精度96%)を発揮します。

モデル特徴

多言語サポート
100以上の言語の品詞タグ付けタスクをサポート
高精度
英語テストセットで96%の精度を達成
ユニバーサル依存関係データセットに基づく
ユニバーサル依存関係v2.8データセットを使用してトレーニング

モデル能力

品詞タグ付け
多言語テキスト処理
トークン分類

使用事例

自然言語処理
多言語テキスト分析
多言語テキストの品詞タグ付けを行い、文法解析をサポート
英語の精度96%、その他の言語の精度は90%から20%まで様々
言語学研究
異なる言語の文法構造を比較するために使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase