Ro Core News Sm
CPUに最適化されたルーマニア語の自然言語処理モデルで、形態素解析、品詞タグ付け、依存関係解析、固有表現認識などの機能を備えています。
ダウンロード数 17
リリース時間 : 3/2/2022
モデル概要
これはspaCyが提供するルーマニア語の小型処理パイプラインで、完全なNLP処理コンポーネントを含み、ルーマニア語テキストの基礎的な分析タスクに適しています。
モデル特徴
CPU最適化
CPUの使用シナリオに特化して最適化されており、リソースが制限された環境に適しています。
完全なNLPフロー
形態素解析から固有表現認識までの完全な処理フローを含んでいます。
高精度の品詞タグ付け
品詞タグ付けの正解率が95.58%に達しています。
マルチタスク学習
単一のモデルで複数のNLPタスクを同時に処理します。
モデル能力
形態素解析
品詞タグ付け
依存構文解析
固有表現認識
語形還元
文分割
使用事例
テキスト分析
ルーマニア語テキスト処理
ルーマニア語テキストに対して基礎的なNLP処理を行います。
形態素解析、品詞タグ付け、依存関係などの言語学的な情報を取得できます。
情報抽出
固有表現認識
ルーマニア語テキストから人名、地名、組織名などのエンティティを識別します。
F1値が71.34%に達しています。
🚀 ro_core_news_sm
ro_core_news_sm
は、ルーマニア語向けに最適化された自然言語処理パイプラインで、CPU 用に設計されています。品詞タグ付けや命名エンティティ認識など、さまざまなタスクを効率的に実行し、ルーマニア語のテキスト分析に強力なサポートを提供します。
🚀 クイックスタート
詳細はこちらをご覧ください:https://spacy.io/models/ro#ro_core_news_sm
📚 ドキュメント
モデル情報
属性 | 詳細 |
---|---|
モデル名 | ro_core_news_sm |
バージョン | 3.7.0 |
spaCy バージョン要件 | >=3.7.0,<3.8.0 |
デフォルトパイプライン | tok2vec , tagger , parser , lemmatizer , attribute_ruler , ner |
コンポーネント | tok2vec , tagger , parser , lemmatizer , senter , attribute_ruler , ner |
ベクトル | 0 個のキー、0 個の一意のベクトル(0 次元) |
ソース | UD Romanian RRT v2.8 (Barbu Mititelu, Verginica; Irimia, Elena; Perez, Cenel - Augusto; Ion, Radu; Simionescu, Radu; Popel, Martin) RONEC - the Romanian Named Entity Corpus (ca9ce460) (Dumitrescu, Stefan Daniel; Avram, Andrei - Marius; Morogan, Luciana; Toma; Stefan) |
ライセンス | CC BY - SA 4.0 |
作者 | Explosion |
タグスキーム
タグスキームを表示(3 つのコンポーネントで合計 540 個のタグ)
コンポーネント | タグ |
---|---|
tagger |
ARROW , Af , Afcfp-n , Afcfson , Afcfsrn , Afcmpoy , Afcms-n , Afp , Afp-p-n , Afp-poy , Afp-srn , Afpf--n , Afpfp-n , Afpfp-ny , Afpfpoy , Afpfpry , Afpfson , Afpfsoy , Afpfsrn , Afpfsry , Afpm--n , Afpmp-n , Afpmpoy , Afpmpry , Afpms-n , Afpmsoy , Afpmsry , Afsfp-n , Afsfsrn , BULLET , COLON , COMMA , Ccssp , Ccsspy , Crssp , Csssp , Cssspy , DASH , DBLQ , Dd3-po---e , Dd3-po---o , Dd3fpo , Dd3fpr , Dd3fpr---e , Dd3fpr---o , Dd3fpr--y , Dd3fso , Dd3fso---e , Dd3fsr , Dd3fsr---e , Dd3fsr---o , Dd3fsr--yo , Dd3mpo , Dd3mpr , Dd3mpr---e , Dd3mpr---o , Dd3mso---e , Dd3msr , Dd3msr---e , Dd3msr---o , Dd3msr--yo , Dh1ms , Dh3fp , Dh3fso , Dh3fsr , Dh3mp , Dh3ms , Di3 , Di3-----y , Di3--r---e , Di3-po , Di3-po---e , Di3-sr , Di3-sr---e , Di3-sr--y , Di3fp , Di3fpr , Di3fpr---e , Di3fso , Di3fso---e , Di3fsr , Di3fsr---e , Di3mp , Di3mpr , Di3mpr---e , Di3ms , Di3ms----e , Di3mso---e , Di3msr , Di3msr---e , Ds1fp-p , Ds1fp-s , Ds1fsop , Ds1fsos , Ds1fsrp , Ds1fsrs , Ds1fsrs-y , Ds1mp-p , Ds1mp-s , Ds1ms-p , Ds1ms-s , Ds1msrs-y , Ds2---s , Ds2fp-p , Ds2fp-s , Ds2fsrp , Ds2fsrs , Ds2mp-p , Ds2mp-s , Ds2ms-p , Ds2ms-s , Ds3---p , Ds3---s , Ds3---sy , Ds3fp-s , Ds3fsos , Ds3fsrs , Ds3mp-s , Ds3ms-s , Dw3--r---e , Dw3-po---e , Dw3fpr , Dw3fso---e , Dw3fsr , Dw3mpr , Dw3mso---e , Dw3msr , Dz3fsr---e , Dz3mso---e , Dz3msr---e , EQUAL , EXCL , EXCLHELLIP , GE , GT , HELLIP , I , LCURL , LPAR , LSQR , LT , M , Mc-p-d , Mc-p-l , Mc-s-b , Mc-s-d , Mc-s-l , Mcfp-l , Mcfp-ln , Mcfprln , Mcfprly , Mcfsoln , Mcfsrl , Mcfsrln , Mcfsrly , Mcmp-l , Mcms-ln , Mcmsrl , Mcmsrln , Mcmsrly , Mffprln , Mffsrln , Mlfpo , Mlfpr , Mlmpr , Mo---l , Mo---ln , Mo-s-r , Mofp-ln , Mofpoly , Mofprly , Mofs-l , Mofsoln , Mofsoly , Mofsrln , Mofsrly , Mompoly , Momprly , Moms-l , Moms-ln , Momsoly , Momsrly , Nc , Nc---n , Ncf--n , Ncfp-n , Ncfpoy , Ncfpry , Ncfs-n , Ncfson , Ncfsoy , Ncfsrn , Ncfsry , Ncfsryy , Ncfsvy , Ncm--n , Ncmp-n , Ncmpoy , Ncmpry , Ncms-n , Ncms-ny , Ncms-y , Ncmsoy , Ncmsrn , Ncmsry , Ncmsryy , Ncmsvn , Ncmsvy , Np , Npfson , Npfsoy , Npfsrn , Npfsry , Npmpoy , Npmpry , Npms-n , Npmsoy , Npmsry , PERCENT , PERIOD , PLUS , PLUSMINUS , Pd3-po , Pd3fpr , Pd3fso , Pd3fsr , Pd3mpo , Pd3mpr , Pd3mpr--y , Pd3mso , Pd3msr , Pi3--r , Pi3-po , Pi3-so , Pi3-sr , Pi3fpr , Pi3fso , Pi3fsr , Pi3mpr , Pi3mso , Pi3msr , Pi3msr--y , Pp1-pa--------w , Pp1-pa--y-----w , Pp1-pd--------s , Pp1-pd--------w , Pp1-pd--y-----w , Pp1-pr--------s , Pp1-sa--------s , Pp1-sa--------w , Pp1-sa--y-----w , Pp1-sd--------s , Pp1-sd--------w , Pp1-sd--y-----w , Pp1-sn--------s , Pp2-----------s , Pp2-pa--------w , Pp2-pa--y-----w , Pp2-pd--------w , Pp2-pd--y-----w , Pp2-pr--------s , Pp2-sa--------s , Pp2-sa--------w , Pp2-sa--y-----w , Pp2-sd--------s , Pp2-sd--------w , Pp2-sd--y-----w , Pp2-sn--------s , Pp2-so--------s , Pp2-sr--------s , Pp3-p---------s , Pp3-pd--------w , Pp3-pd--y-----w , Pp3-po--------s , Pp3-sd--------w , Pp3-sd--y-----w , Pp3-so--------s , Pp3fpa--------w , Pp3fpa--y-----w , Pp3fpr--------s , Pp3fs---------s , Pp3fsa--------w , Pp3fsa--y-----w , Pp3fso--------s , Pp3fsr--------s , Pp3fsr--y-----s , Pp3mpa--------w , Pp3mpa--y-----w , Pp3mpr--------s , Pp3ms---------s , Pp3msa--------w , Pp3msa--y-----w , Pp3mso--------s , Pp3msr--------s , Pp3msr--y-----s , Ps1fp-s , Ps1fsrp , Ps1fsrs , Ps1mp-p , Ps1ms-p , Ps2fp-s , Ps2fsrp , Ps2fsrs , Ps3---p , Ps3---s , Ps3fp-s , Ps3fsrs , Ps3mp-s , Ps3ms-s , Pw3--r , Pw3-po , Pw3-so , Pw3fpr , Pw3fso , Pw3mpr , Pw3mso , Px3--a--------s , Px3--a--------w , Px3--a--y-----w , Px3--d--------w , Px3--d--y-----w , Pz3-sr , Pz3fsr , QUEST , QUOT , Qf , Qn , Qs , Qs-y , Qz , Qz-y , RCURL , RPAR , RSQR , Rc , Rgp , Rgpy , Rgs , Rp , Rw , Rw-y , Rz , SCOLON , SLASH , STAR , Sp , Spsa , Spsay , Spsd , Spsg , Td-po , Tdfpr , Tdfso , Tdfsr , Tdmpr , Tdmso , Tdmsr , Tf-so , Tffpoy , Tffpry , Tffs-y , Tfmpoy , Tfms-y , Tfmsoy , Tfmsry , Ti-po , Tifp-y , Tifso , Tifsr , Timso , Timsr , Tsfp , Tsfs , Tsmp , Tsms , UNDERSC , Va--1 , Va--1-----y , Va--1p , Va--1s , Va--1s----y , Va--2p , Va--2p----y , Va--2s , Va--2s----y , Va--3 , Va--3-----y , Va--3p , Va--3p----y , Va--3s , Va--3s----y , Vag , Vag-------y , Vaii1 , Vaii2s , Vaii3p , Vaii3s , Vail3p , Vail3s , Vaip1p , Vaip1s , Vaip2p , Vaip2s , Vaip3p , Vaip3p----y , Vaip3s , Vaip3s----y , Vais3p , Vais3s , Vam-2s , Vanp , Vap--sm , Vasp1p , Vasp1s , Vasp2p , Vasp2s , Vasp3 , Vmg , Vmg-------y , Vmii1 , Vmii1-----y , Vmii2p , Vmii2s , Vmii3p , Vmii3p----y , Vmii3s , Vmii3s----y , Vmil1 , Vmil1p , Vmil2s , Vmil3p , Vmil3p----y , Vmil3s , Vmil3s----y , Vmip1p , Vmip1p----y , Vmip1s , Vmip1s----y , Vmip2p , Vmip2s , Vmip2s----y , Vmip3 , Vmip3-----y , Vmip3p , Vmip3s , Vmip3s----y , Vmis1p , Vmis1s , Vmis3p , Vmis3p----y , Vmis3s , Vmis3s----y , Vmm-2p , Vmm-2s , Vmnp , Vmnp------y , Vmp--pf , Vmp--pm , Vmp--sf , Vmp--sm , Vmp--sm---y , Vmsp1p , Vmsp2p , Vmsp2s , Vmsp3 , Vmsp3-----y , X , Y , Ya , Yn , Ynfsoy , Ynfsry , Ynmsoy , Ynmsry , Yp , Yp,Yn , Yp-sr , Yr , _SP |
parser |
ROOT , acl , advcl , advcl:tcl , advmod , advmod:tmod , amod , appos , aux , aux:pass , case , cc , cc:preconj , ccomp , ccomp:pmod , compound , conj , cop , csubj , csubj:pass , dep , det , expl , expl:impers , expl:pass , expl:poss , expl:pv , fixed , flat , goeswith , iobj , mark , nmod , nmod:tmod , nsubj , nsubj:pass , nummod , obj , obl , obl:agent , obl:pmod , orphan , parataxis , punct , vocative , xcomp |
ner |
DATETIME , EVENT , FACILITY , GPE , LANGUAGE , LOC , MONEY , NAT_REL_POL , NUMERIC_VALUE , ORDINAL , ORGANIZATION , PERIOD , PERSON , PRODUCT , QUANTITY , WORK_OF_ART |
正解率
タイプ | スコア |
---|---|
TOKEN_ACC |
99.80 |
TOKEN_P |
99.67 |
TOKEN_R |
99.57 |
TOKEN_F |
99.59 |
TAG_ACC |
95.58 |
SENTS_P |
96.01 |
SENTS_R |
96.01 |
SENTS_F |
96.01 |
DEP_UAS |
87.15 |
DEP_LAS |
81.29 |
LEMMA_ACC |
95.05 |
POS_ACC |
92.83 |
MORPH_ACC |
94.05 |
MORPH_MICRO_P |
98.20 |
MORPH_MICRO_R |
95.20 |
MORPH_MICRO_F |
96.43 |
ENTS_P |
72.33 |
ENTS_R |
70.38 |
ENTS_F |
71.34 |
📄 ライセンス
このプロジェクトは CC BY - SA 4.0
ライセンスの下で提供されています。
Indonesian Roberta Base Posp Tagger
MIT
これはインドネシア語RoBERTaモデルをファインチューニングした品詞タグ付けモデルで、indonluデータセットで訓練され、インドネシア語テキストの品詞タグ付けタスクに使用されます。
シーケンスラベリング
Transformers その他

I
w11wo
2.2M
7
Bert Base NER
MIT
BERTを微調整した命名エンティティ識別モデルで、4種類のエンティティ(場所(LOC)、組織(ORG)、人名(PER)、その他(MISC))を識別できます。
シーケンスラベリング 英語
B
dslim
1.8M
592
Deid Roberta I2b2
MIT
このモデルはRoBERTaをファインチューニングしたシーケンスラベリングモデルで、医療記録内の保護対象健康情報(PHI/PII)を識別・除去します。
シーケンスラベリング
Transformers 複数言語対応

D
obi
1.1M
33
Ner English Fast
Flairに組み込まれた英語の高速4クラス固有表現認識モデルで、Flair埋め込みとLSTM-CRFアーキテクチャを使用し、CoNLL-03データセットで92.92のF1スコアを達成しています。
シーケンスラベリング
PyTorch 英語
N
flair
978.01k
24
French Camembert Postag Model
Camembert-baseをベースとしたフランス語の品詞タグ付けモデルで、free-french-treebankデータセットを使用して学習されました。
シーケンスラベリング
Transformers フランス語

F
gilf
950.03k
9
Xlm Roberta Large Ner Spanish
XLM - Roberta - largeアーキテクチャに基づいて微調整されたスペイン語の命名エンティティ認識モデルで、CoNLL - 2002データセットで優れた性能を発揮します。
シーケンスラベリング
Transformers スペイン語

X
MMG
767.35k
29
Nusabert Ner V1.3
MIT
NusaBert-v1.3を基にインドネシア語NERタスクでファインチューニングした固有表現認識モデル
シーケンスラベリング
Transformers その他

N
cahya
759.09k
3
Ner English Large
Flairフレームワークに組み込まれた英語の4種類の大型NERモデルで、文書レベルのXLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03データセットでF1スコアが94.36に達します。
シーケンスラベリング
PyTorch 英語
N
flair
749.04k
44
Punctuate All
MIT
xlm - roberta - baseを微調整した多言語句読点予測モデルで、12種類の欧州言語の句読点自動補完に対応しています。
シーケンスラベリング
Transformers

P
kredor
728.70k
20
Xlm Roberta Ner Japanese
MIT
xlm-roberta-baseをファインチューニングした日本語固有表現認識モデル
シーケンスラベリング
Transformers 複数言語対応

X
tsmatz
630.71k
25
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98