Indonesian Roberta Base Posp Tagger
MIT
これはインドネシア語RoBERTaモデルをファインチューニングした品詞タグ付けモデルで、indonluデータセットで訓練され、インドネシア語テキストの品詞タグ付けタスクに使用されます。
シーケンスラベリング
Transformers その他

I
w11wo
2.2M
7
Bert Base NER
MIT
BERTを微調整した命名エンティティ識別モデルで、4種類のエンティティ(場所(LOC)、組織(ORG)、人名(PER)、その他(MISC))を識別できます。
シーケンスラベリング 英語
B
dslim
1.8M
592
Deid Roberta I2b2
MIT
このモデルはRoBERTaをファインチューニングしたシーケンスラベリングモデルで、医療記録内の保護対象健康情報(PHI/PII)を識別・除去します。
シーケンスラベリング
Transformers 複数言語対応

D
obi
1.1M
33
Ner English Fast
Flairに組み込まれた英語の高速4クラス固有表現認識モデルで、Flair埋め込みとLSTM-CRFアーキテクチャを使用し、CoNLL-03データセットで92.92のF1スコアを達成しています。
シーケンスラベリング 英語
N
flair
978.01k
24
French Camembert Postag Model
Camembert-baseをベースとしたフランス語の品詞タグ付けモデルで、free-french-treebankデータセットを使用して学習されました。
シーケンスラベリング
Transformers フランス語

F
gilf
950.03k
9
Xlm Roberta Large Ner Spanish
XLM - Roberta - largeアーキテクチャに基づいて微調整されたスペイン語の命名エンティティ認識モデルで、CoNLL - 2002データセットで優れた性能を発揮します。
シーケンスラベリング
Transformers スペイン語

X
MMG
767.35k
29
Nusabert Ner V1.3
MIT
NusaBert-v1.3を基にインドネシア語NERタスクでファインチューニングした固有表現認識モデル
シーケンスラベリング
Transformers その他

N
cahya
759.09k
3
Ner English Large
Flairフレームワークに組み込まれた英語の4種類の大型NERモデルで、文書レベルのXLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03データセットでF1スコアが94.36に達します。
シーケンスラベリング 英語
N
flair
749.04k
44
Punctuate All
MIT
xlm - roberta - baseを微調整した多言語句読点予測モデルで、12種類の欧州言語の句読点自動補完に対応しています。
シーケンスラベリング
Transformers

P
kredor
728.70k
20
Xlm Roberta Ner Japanese
MIT
xlm-roberta-baseをファインチューニングした日本語固有表現認識モデル
シーケンスラベリング
Transformers 複数言語対応

X
tsmatz
630.71k
25
Gliner Medium News V2.1
Apache-2.0
GLiNERをベースにしたファインチューニング版で、ニュースエンティティ抽出に最適化されており、18のベンチマークテストでゼロショット精度が最大7.5%向上
シーケンスラベリング 英語
G
EmergentMethods
532.81k
75
Fullstop Punctuation Multilang Large
MIT
英語、イタリア語、フランス語、ドイツ語のテキストにおける句読点を予測する多言語モデルで、話し言葉の転記における句読点構造を回復することを目的としています。
シーケンスラベリング
Transformers 複数言語対応

F
oliverguhr
375.32k
163
Bert Base Multilingual Cased Ner Hrl
mBERTに基づく多言語の固有表現認識モデルで、10種類の高リソース言語をサポートし、場所、組織、人名の3種類のエンティティを認識できます。
シーケンスラベリング
Transformers

B
Davlan
363.27k
72
Bert Large NER
MIT
BERT-largeを微調整した命名エンティティ認識モデルで、CoNLL-2003データセットで最先端の性能を実現
シーケンスラベリング 英語
B
dslim
360.98k
150
Ner French
Flairに標準搭載されているフランス語の4クラスNERモデルで、Flairの単語埋め込みとLSTM-CRFアーキテクチャに基づいており、WikiNERデータセットでF1スコア90.61を達成しています。
シーケンスラベリング フランス語
N
flair
335.11k
13
Ner German Large
Flairフレームワークに組み込まれたドイツ語の4種類の大型命名エンティティ認識モデルで、XLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03ドイツ語データセットで92.31のF1スコアを達成しています。
シーケンスラベリング ドイツ語
N
flair
297.28k
40
Xlm Roberta Base Romanian Ner Ronec
xlm-robertaモデルを基にルーマニア語NERデータセットRONECで訓練された固有表現認識モデルで、テストセットのf1-Macroスコアは95点に達しています。
シーケンスラベリング
Transformers その他

X
EvanD
283.26k
3
Distilbert Base Multilingual Cased Ner Hrl
10種類の高リソース言語を対象とした命名エンティティ認識モデルで、微調整されたDistil BERTベースモデルに基づいており、場所、組織、人物の3種類のエンティティを認識できます。
シーケンスラベリング
Transformers

D
Davlan
270.56k
78
Wikineural Multilingual Ner
ニューラルネットワークと知識ベースを融合した多言語固有表現認識モデルで、9種類の言語をサポートします。
シーケンスラベリング
Transformers 複数言語対応

W
Babelscape
258.08k
142
Roberta Large Ner English
MIT
RoBERTa-largeをベースに微調整された英語の命名エンティティ認識モデルで、conll2003データセットで訓練され、特にメール/チャットデータのエンティティ認識能力が最適化されています。
シーケンスラベリング
Transformers 英語

R
Jean-Baptiste
236.85k
71
Camembert Ner
MIT
camemBERTを基に、wikiner-frデータセットで微調整された命名エンティティ認識(NER)モデルで、フランス語テキストの命名エンティティ認識タスクを得意とします。
シーケンスラベリング
Transformers フランス語

C
Jean-Baptiste
230.81k
110
Camembert Ner With Dates
MIT
camemBERTをファインチューニングしたフランス語の命名エンティティ認識モデルで、日付ラベル機能を追加しました。
シーケンスラベリング
Transformers フランス語

C
Jean-Baptiste
219.11k
43
Ner English Ontonotes Large
Flairに付属の英語の18種類の命名エンティティ認識の大規模モデルで、Ontonotesデータセットを基に訓練され、XLM - R埋め込みとFLERT技術を採用しています。
シーケンスラベリング 英語
N
flair
176.21k
96
Ner English Ontonotes
Flairに組み込まれている英語18クラス固有表現認識モデルで、Ontonotesデータセットで訓練され、F1スコアは89.27です。
シーケンスラベリング 英語
N
flair
175.71k
19
Roberta Large Tweetner7 All
roberta-largeをtner/tweetner7データセットでファインチューニングした固有表現認識モデルで、ツイッターテキストの固有表現認識に特化
シーケンスラベリング
Transformers

R
tner
170.06k
1
Sat 3l Sm
MIT
3層Transformerアーキテクチャを採用した最先端の文分割技術で、多言語テキスト分割をサポートします。
シーケンスラベリング
Transformers 複数言語対応

S
segment-any-text
168.01k
6
Albert Tiny Chinese Ws
Gpl-3.0
繁体中国語向けtransformersモデル及び自然言語処理ツールを提供
シーケンスラベリング
Transformers 中国語

A
ckiplab
166.28k
6
Ner Dutch Large
Flairに付属のオランダ語の4種類の命名エンティティ認識大規模モデルで、XLM - R埋め込みとFLERT技術に基づいており、CoNLL - 03オランダ語データセットでF1スコアが95.25に達します。
シーケンスラベリング その他
N
flair
147.32k
9
Layoutreader
PDFから抽出またはOCRで検出されたテキストボックスを読み取り可能な順序に変換する読書順序予測モデルです。
シーケンスラベリング
Transformers

L
hantian
139.61k
27
Deid Bert I2b2
MIT
このモデルは医療記録内の保護対象健康情報(PHI/PII)を識別・除去するために使用され、HIPAAプライバシー基準に準拠しています。
シーケンスラベリング
Transformers 複数言語対応

D
obi
129.39k
21
Bert Base NER Russian
MIT
bert-base-multilingual-casedをファインチューニングしたロシア語テキストの固有表現認識(NER)モデルで、BIOLUタグ付け形式を採用し、人名、場所、組織などのさまざまなエンティティタイプを認識できます。
シーケンスラベリング
Transformers その他

B
Gherman
128.72k
7
Ner English
Flairに付属の英語の標準4種類の固有表現認識モデルで、Flair埋め込みとLSTM - CRFアーキテクチャに基づいており、CoNLL - 03データセットで93.06のF1スコアを達成しています。
シーケンスラベリング 英語
N
flair
127.67k
34
Piiranha V1 Detect Personal Information
Piiranha-v1 は microsoft/mdeberta-v3-base をファインチューニングしたモデルで、6言語における17種類の個人識別情報(PII)の検出専用に設計されています。
シーケンスラベリング
Transformers 複数言語対応

P
iiiorg
125.41k
181
Bert Base Turkish Cased Ner
MIT
dbmdz/bert-base-turkish-casedモデルをファインチューニングしたトルコ語固有表現認識モデルで、人名、組織名、地名などのエンティティを認識できます。
シーケンスラベリング
Transformers その他

B
akdeniz27
115.25k
23
Biomedical Ner All
Apache-2.0
distilbert-base-uncasedを基に訓練された英語の命名エンティティ認識モデルで、生物医学エンティティ(107種類)の識別に特化しており、症例報告などのテキストコーパスに適しています。
シーケンスラベリング
Transformers 英語

B
d4data
112.41k
165
Bpmn Information Extraction V2
Apache-2.0
bert-base-casedをファインチューニングしたBPMNプロセス情報抽出モデルで、テキスト化されたプロセス記述から実行者、タスクなどの主要要素を抽出
シーケンスラベリング
Transformers

B
jtlicardo
112.15k
14
Zh Wiki Punctuation Restore
中国語ウィキペディアテキストの句読点回復ツールで、6種類の一般的な句読点を回復できます。
シーケンスラベリング
Transformers 複数言語対応

Z
p208p2002
102.99k
11
Xlm Roberta Large Finetuned Conll03 English
XLM - RoBERTa - largeモデルを英語のconll2003データセットで微調整した命名エンティティ認識モデル
シーケンスラベリング 複数言語対応
X
FacebookAI
84.75k
169
Bert English Uncased Finetuned Pos
中国語の品詞タグ付け用モデルで、一般的な17種類の品詞タグをサポートしています。
シーケンスラベリング
B
vblagoje
79.89k
40
Bert Spanish Cased Finetuned Ner
スペイン語BERT大文字小文字区別版(BETO)をNER-Cデータセットでファインチューニングしたバージョンで、固有表現認識(NER)タスク専用です。
シーケンスラベリング スペイン語
B
mrm8488
77.49k
21
Bert Fa Base Uncased Ner Peyma
Apache-2.0
Transformerベースのペルシア語理解モデルで、語彙表を再構築し、新しいコーパスで微調整し、多領域での応用機能を拡張しました。
シーケンスラベリング その他
B
HooshvareLab
69.74k
7
Gliner Multi Pii V1
Apache-2.0
GLiNERは、さまざまな種類の個人識別情報(PII)を認識できる名前付きエンティティ認識(NER)モデルです。
シーケンスラベリング
PyTorch 複数言語対応
G
urchade
67.78k
107
- 1
- 2
- 3
- 4
- 5
- 6
- 10