Xlm Roberta Base Ft Udpos28 Lt
XLM - RoBERTaに基づく多言語品詞タグ付けモデルで、リトアニア語に特化して微調整されています。
ダウンロード数 23
リリース時間 : 3/2/2022
モデル概要
このモデルは、XLM - RoBERTaの基礎モデルを、通用依存関係ライブラリv2.8のリトアニア語データで微調整した品詞タグ付けモデルで、リトアニア語テキストの品詞タグを正確に識別できます。
モデル特徴
多言語対応
XLM - RoBERTaアーキテクチャに基づき、複数の言語を処理する能力を備えています。
高い正解率
リトアニア語のテストセットで96.1%の正解率を達成しています。
通用依存関係標準
通用依存関係ライブラリv2.8の品詞タグ付け標準に準拠しています。
モデル能力
品詞タグ付け
多言語テキスト処理
自然言語処理
使用事例
自然言語処理
テキスト分析
リトアニア語テキストの品詞タグ付け分析を行います。
名詞、動詞、形容詞などの品詞を正確に識別します。
言語学研究
リトアニア語の文法研究と分析に使用します。
正確な品詞タグ付けデータを提供します。
🚀 XLM-RoBERTaベースのUniversal Dependencies v2.8品詞タグ付け:リトアニア語
このモデルは、以下の論文の一部です。
- Make the Best of Cross-lingual Transfer: Evidence from POS Tagging with over 100 Languages
詳細については、スペースを確認してください。
🚀 クイックスタート
このセクションでは、モデルの基本的な使用方法を説明します。
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForTokenClassification
tokenizer = AutoTokenizer.from_pretrained("wietsedv/xlm-roberta-base-ft-udpos28-lt")
model = AutoModelForTokenClassification.from_pretrained("wietsedv/xlm-roberta-base-ft-udpos28-lt")
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
📚 ドキュメント
モデル情報
属性 | 詳情 |
---|---|
モデルタイプ | Transformer |
タグ | 品詞、トークン分類 |
データセット | Universal Dependencies |
評価指標 | 正確度 |
モデルの結果
モデル名: xlm-roberta-base-ft-udpos28-lt
タスク | データセット | 評価指標 | 値 |
---|---|---|---|
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 英語のテスト正確度 | 80.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | オランダ語のテスト正確度 | 80.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ドイツ語のテスト正確度 | 76.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | イタリア語のテスト正確度 | 77.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | フランス語のテスト正確度 | 75.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スペイン語のテスト正確度 | 79.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ロシア語のテスト正確度 | 88.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スウェーデン語のテスト正確度 | 81.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ノルウェー語のテスト正確度 | 76.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | デンマーク語のテスト正確度 | 78.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ローサクソン語のテスト正確度 | 52.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アッカド語のテスト正確度 | 31.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アルメニア語のテスト正確度 | 84.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ウェールズ語のテスト正確度 | 63.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 古東スラブ語のテスト正確度 | 75.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アルバニア語のテスト正確度 | 76.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スロベニア語のテスト正確度 | 81.4 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | グアジャラ語のテスト正確度 | 26.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | クルディ語(クルマンジ方言)のテスト正確度 | 77.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | トルコ語のテスト正確度 | 74.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | フィンランド語のテスト正確度 | 83.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | インドネシア語のテスト正確度 | 78.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ウクライナ語のテスト正確度 | 88.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ポーランド語のテスト正確度 | 86.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ポルトガル語のテスト正確度 | 81.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | カザフ語のテスト正確度 | 83.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ラテン語のテスト正確度 | 78.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 古フランス語のテスト正確度 | 56.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ブリヤート語のテスト正確度 | 64.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | カーポール語のテスト正確度 | 22.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 韓国語のテスト正確度 | 64.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | エストニア語のテスト正確度 | 81.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | クロアチア語のテスト正確度 | 86.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ゴート語のテスト正確度 | 22.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スイスドイツ語のテスト正確度 | 48.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アッシリア語のテスト正確度 | 14.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 北サーミ語のテスト正確度 | 39.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ナイジャ語のテスト正確度 | 41.4 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ラトビア語のテスト正確度 | 89.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 中国語のテスト正確度 | 34.4 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | タガログ語のテスト正確度 | 73.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | バンバラ語のテスト正確度 | 26.4 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | リトアニア語のテスト正確度 | 96.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ガリシア語のテスト正確度 | 81.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ベトナム語のテスト正確度 | 65.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ギリシャ語のテスト正確度 | 81.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | カタルーニャ語のテスト正確度 | 76.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | チェコ語のテスト正確度 | 86.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | エルジャ語のテスト正確度 | 48.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ボジュプリ語のテスト正確度 | 50.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | タイ語のテスト正確度 | 54.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | マラーティー語のテスト正確度 | 82.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | バスク語のテスト正確度 | 75.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スロバキア語のテスト正確度 | 88.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | キチェ語のテスト正確度 | 33.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ヨルバ語のテスト正確度 | 24.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ワールピリ語のテスト正確度 | 44.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | タミル語のテスト正確度 | 79.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | マルタ語のテスト正確度 | 25.5 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 古代ギリシャ語のテスト正確度 | 65.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アイスランド語のテスト正確度 | 80.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ムビャ・グアラニ語のテスト正確度 | 32.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ウルドゥー語のテスト正確度 | 59.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ルーマニア語のテスト正確度 | 78.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ペルシャ語のテスト正確度 | 72.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アプリナ語のテスト正確度 | 42.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 日本語のテスト正確度 | 22.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ハンガリー語のテスト正確度 | 76.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ヒンディー語のテスト正確度 | 62.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 古典中国語のテスト正確度 | 15.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | コミ・ペルミャク語のテスト正確度 | 48.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | フェロー語のテスト正確度 | 77.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | サンスクリット語のテスト正確度 | 41.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | リヴヴィ語のテスト正確度 | 67.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アラビア語のテスト正確度 | 73.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ウォロフ語のテスト正確度 | 28.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ブルガリア語のテスト正確度 | 85.9 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アクンツ語のテスト正確度 | 26.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | マクラパ語のテスト正確度 | 17.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | カングリ語のテスト正確度 | 50.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ブルトン語のテスト正確度 | 60.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | テルグ語のテスト正確度 | 85.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 広東語のテスト正確度 | 39.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 古教会スラブ語のテスト正確度 | 51.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | カレリア語のテスト正確度 | 71.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 上ソルビア語のテスト正確度 | 75.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 南レバントアラビア語のテスト正確度 | 67.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | コミ・ジュリア語のテスト正確度 | 43.0 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アイルランド語のテスト正確度 | 60.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ナイニ語のテスト正確度 | 46.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ムンドゥルク語のテスト正確度 | 18.8 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | マンクス語のテスト正確度 | 33.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スコルト・サーミ語のテスト正確度 | 37.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | アフリカーンス語のテスト正確度 | 76.4 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 古トルコ語のテスト正確度 | 37.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | トゥピンアンバ語のテスト正確度 | 34.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ベラルーシ語のテスト正確度 | 89.1 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | セルビア語のテスト正確度 | 87.7 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | モクシャ語のテスト正確度 | 46.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | 西アルメニア語のテスト正確度 | 75.4 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | スコットランド・ゲール語のテスト正確度 | 56.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | クンサリ語のテスト正確度 | 39.2 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ヘブライ語のテスト正確度 | 83.3 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | ウイグル語のテスト正確度 | 76.6 |
トークン分類(品詞タグ付け) | Universal Dependencies v2.8 | チュクチ語のテスト正確度 | 35.4 |
Indonesian Roberta Base Posp Tagger
MIT
これはインドネシア語RoBERTaモデルをファインチューニングした品詞タグ付けモデルで、indonluデータセットで訓練され、インドネシア語テキストの品詞タグ付けタスクに使用されます。
シーケンスラベリング
Transformers その他

I
w11wo
2.2M
7
Bert Base NER
MIT
BERTを微調整した命名エンティティ識別モデルで、4種類のエンティティ(場所(LOC)、組織(ORG)、人名(PER)、その他(MISC))を識別できます。
シーケンスラベリング 英語
B
dslim
1.8M
592
Deid Roberta I2b2
MIT
このモデルはRoBERTaをファインチューニングしたシーケンスラベリングモデルで、医療記録内の保護対象健康情報(PHI/PII)を識別・除去します。
シーケンスラベリング
Transformers 複数言語対応

D
obi
1.1M
33
Ner English Fast
Flairに組み込まれた英語の高速4クラス固有表現認識モデルで、Flair埋め込みとLSTM-CRFアーキテクチャを使用し、CoNLL-03データセットで92.92のF1スコアを達成しています。
シーケンスラベリング
PyTorch 英語
N
flair
978.01k
24
French Camembert Postag Model
Camembert-baseをベースとしたフランス語の品詞タグ付けモデルで、free-french-treebankデータセットを使用して学習されました。
シーケンスラベリング
Transformers フランス語

F
gilf
950.03k
9
Xlm Roberta Large Ner Spanish
XLM - Roberta - largeアーキテクチャに基づいて微調整されたスペイン語の命名エンティティ認識モデルで、CoNLL - 2002データセットで優れた性能を発揮します。
シーケンスラベリング
Transformers スペイン語

X
MMG
767.35k
29
Nusabert Ner V1.3
MIT
NusaBert-v1.3を基にインドネシア語NERタスクでファインチューニングした固有表現認識モデル
シーケンスラベリング
Transformers その他

N
cahya
759.09k
3
Ner English Large
Flairフレームワークに組み込まれた英語の4種類の大型NERモデルで、文書レベルのXLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03データセットでF1スコアが94.36に達します。
シーケンスラベリング
PyTorch 英語
N
flair
749.04k
44
Punctuate All
MIT
xlm - roberta - baseを微調整した多言語句読点予測モデルで、12種類の欧州言語の句読点自動補完に対応しています。
シーケンスラベリング
Transformers

P
kredor
728.70k
20
Xlm Roberta Ner Japanese
MIT
xlm-roberta-baseをファインチューニングした日本語固有表現認識モデル
シーケンスラベリング
Transformers 複数言語対応

X
tsmatz
630.71k
25
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98