# 高精度NER

Legal Ai India Ner Results
このモデルはnlpaueb/legal-bert-base-uncasedをInLegalNERデータセットでファインチューニングしたバージョンで、インドの法律テキストにおける固有表現認識タスク専用です。
シーケンスラベリング Transformers
L
Amitava25
30
1
Legal Bert Lgpd
ポルトガル語法律分野の固有表現認識モデルで、ブラジルデータ保護法LGPDに準拠し、法律テキスト内の機密情報を識別することに特化しています。
シーケンスラベリング その他
L
celiudos
668
3
Modernbert Ner Conll2003
Apache-2.0
ModernBERT-baseをファインチューニングした固有表現認識モデルで、CoNLL2003データセットで訓練されており、人物、組織、場所のエンティティ認識に優れています。
シーケンスラベリング Transformers 英語
M
IsmaelMousa
40
2
Nermemberta 3entities
MIT
CamemBERTa v2をファインチューニングしたフランス語固有表現認識モデル、LOC/PER/ORGの3種類のエンティティ認識をサポート
シーケンスラベリング Transformers フランス語
N
CATIE-AQ
124
1
Medical Ner Roberta
RoBERTaアーキテクチャに基づく医療分野の名前付きエンティティ認識モデルで、医療テキストから特定のエンティティを識別するために使用されます
シーケンスラベリング Transformers
M
nairaxo
58
1
Biomed NER
DeBERTaV3ベースの生物医学的固有表現認識モデルで、臨床テキストから疾患や薬剤などの構造化情報を抽出するために特別に設計されています
シーケンスラベリング 英語
B
Helios9
554
4
Bert Bilstm Crf Ner Weibo
BERT-BiLSTM-CRFアーキテクチャに基づく中国語固有表現抽出モデルで、微博データセットでファインチューニングされており、ソーシャルメディアテキストのエンティティ認識タスクに適しています
シーケンスラベリング Transformers
B
PassbyGrocer
69
3
Bert Base NER Russian
MIT
bert-base-multilingual-casedをファインチューニングしたロシア語テキストの固有表現認識(NER)モデルで、BIOLUタグ付け形式を採用し、人名、場所、組織などのさまざまなエンティティタイプを認識できます。
シーケンスラベリング Transformers その他
B
Gherman
128.72k
7
Cyner 2.0 DeBERTa V3 Base
MIT
CyNER 2.0はサイバーセキュリティ分野専用に設計された固有表現認識モデルで、DeBERTaアーキテクチャに基づき、様々なサイバーセキュリティ関連エンティティを識別できます。
シーケンスラベリング Transformers 英語
C
PranavaKailash
164
2
Address Ner Ru
Apache-2.0
ロシア語文字列からアドレス構成要素を識別するための固有表現認識モデル
シーケンスラベリング Transformers その他
A
aidarmusin
673
4
Legal NER Support Model
Legal-BERTをファインチューニングした法的命名実体認識モデルで、法テキスト内の特定実体を識別
シーケンスラベリング Transformers
L
Sidziesama
52
1
Nuner V1 Orgs
FewNERD-fine-supervisedでファインチューニングされたnumind/NuNER-v1.0モデルで、テキスト中の組織エンティティ(ORG)を識別するために使用されます
シーケンスラベリング Transformers 複数言語対応
N
guishe
6,836
2
Electra Small Ner
Apache-2.0
electra-smallをファインチューニングした命名エンティティ認識モデルで、場所、人名、組織の3種類のエンティティを認識できます。
シーケンスラベリング Transformers 英語
E
rv2307
74
3
Medical NER
MIT
DeBERTaアーキテクチャに基づいて微調整された医学命名実体認識モデルで、41種類の医学実体を認識できます。
シーケンスラベリング Transformers
M
blaze999
14.76k
207
Robertalexpt Base
RoBERTaLexPT-baseは、LegalPTとCrawlPTコーパスで事前学習された、法律分野に特化したポルトガル語マスク言語モデルです。
大規模言語モデル Transformers その他
R
eduagarcia
366
17
Cybert CyNER
CYBERTをCyNERデータセットでファインチューニングしたサイバーセキュリティエンティティ認識モデルで、ネットワーク脅威に関連する名前付きエンティティを識別します。
シーケンスラベリング Transformers
C
Cyber-ThreaD
31
1
Distilbert Finetuned Ai4privacy V2
distilbert-base-uncasedをファインチューニングしたPII(個人識別情報)識別モデルで、テキストから機密情報を検出・除去する
シーケンスラベリング Transformers 英語
D
Isotonic
3,499
14
Xlmr Lstm Crf Resume Ner2
MIT
このモデルはxlm-roberta-baseを特定のデータセットでファインチューニングしたバージョンで、主に固有表現認識タスクに使用されます。
シーケンスラベリング Transformers
X
hiendang7613
21
1
Cryptoner
MIT
xlm-roberta-baseをファインチューニングした暗号通貨の固有表現認識モデルで、暗号通貨のトークンシンボル、名称、ブロックチェーンアドレスの識別に特化しています。
シーケンスラベリング Transformers
C
covalenthq
201
14
Historical Newspaper Ner
Roberta-largeをファインチューニングした固有表現認識モデルで、OCRエラーを含む可能性のある歴史的な新聞テキスト専用です。
シーケンスラベリング Transformers 英語
H
dell-research-harvard
209
8
Bert Finetuned Ner
Apache-2.0
BERT-base-casedモデルをconll2003データセットでファインチューニングした固有表現抽出モデル
シーケンスラベリング Transformers
B
fundrais123
23
1
Finance Ner V0.0.8 Finetuned Ner
MIT
このモデルは金融分野のデータセットで微調整された命名エンティティ認識モデルで、金融テキスト中の命名エンティティを正確に認識できます。
シーケンスラベリング Transformers
F
AhmedTaha012
116
2
En Biobert Ner Symptom
MIT
BioBERTをファインチューニングした固有表現認識モデルで、臨床記録から医学的症状を検出します。
シーケンスラベリング 英語
E
pmaitra
25
5
Lm Ner Linkedin Skills Recognition
DistilBERTベースのLinkedIn技能識別モデルで、テキストから専門技能を識別するために使用されます。
シーケンスラベリング Transformers
L
algiraldohe
1,194
21
Herbert Base Ner
HerBERTモデルをファインチューニングしたポーランド語固有表現認識モデルで、人物、場所、組織の3種類のエンティティを認識可能
シーケンスラベリング Transformers その他
H
pczarnik
394
4
Starpii
コードデータセット内の個人識別可能情報(PII)を検出するNERモデルで、氏名、メールアドレス、キー、パスワード、IPアドレス、ユーザー名など6種類のPIIを識別可能
シーケンスラベリング Transformers その他
S
bigcode
2,484
118
Koelectra Small V3 Modu Ner
KoELECTRA-small-v3ベースの韓国語固有表現認識モデル、15種類のエンティティタイプ認識をサポート
シーケンスラベリング Transformers 韓国語
K
Leo97
9,277
20
Xml Roberta Large Ner Russian
MIT
これはxlm-roberta-largeモデルをロシア語Wikiannデータセットでファインチューニングした固有表現認識(NER)モデルです
シーケンスラベリング Transformers
X
yqelz
181
8
Instafoodroberta NER
MIT
ソーシャルメディアの非公式テキスト向けに設計された食品エンティティ認識モデル、RoBERTaアーキテクチャを基にファインチューニング
シーケンスラベリング Transformers 英語
I
Dizex
252
12
Xlm Roberta Ner Japanese
MIT
xlm-roberta-baseをファインチューニングした日本語固有表現認識モデル
シーケンスラベリング Transformers 複数言語対応
X
tsmatz
630.71k
25
Yoda Ner
YODAはGoogle Feed製品向けに最適化された固有表現認識モデルで、EC製品メタデータの特徴抽出に特化しています
シーケンスラベリング TensorBoard スペイン語
Y
lighthousefeed
25
4
Bert Base Chinese Ws Finetuned Ner All
Gpl-3.0
このモデルはckiplab/bert-base-chinese-wsをベースに中国語固有表現認識(NER)タスク向けにファインチューニングされたバージョンで、評価セットで優れた性能を示しています。
シーケンスラベリング Transformers
B
HYM
41
2
Kor Naver Ner Name
kor-bertをベースに微調整された韓国人名識別モデルで、テキスト中の韓国人名を識別し匿名化するために使用されます。
シーケンスラベリング Transformers
K
joon09
2,614
4
Bc4chemd Ner Bio ClinicalBERT Finetuned Ner
MIT
このモデルは、Bio_ClinicalBERTをbc4chemd_nerデータセットで微調整したバージョンで、化学薬品固有表現認識タスクに使用されます。
シーケンスラベリング Transformers
B
commanderstrife
56
0
Xlm Roberta Large Ner Hrl Finetuned Ner
xlm-roberta-large-ner-hrlモデルを玩具データセットでファインチューニングした固有表現認識モデル
シーケンスラベリング Transformers
X
kinanmartin
29
0
Bert Finetuned Ner
Apache-2.0
bert-base-casedをベースにファインチューニングした固有表現認識(NER)モデル
シーケンスラベリング Transformers
B
ankitsharma
14
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
このモデルはDistilBERTベースの軽量モデルで、玩具データセット上で固有表現抽出(NER)タスクのファインチューニングを行っています。
シーケンスラベリング Transformers
D
kinanmartin
16
0
Ner Bert Base Cased Ontonotesv5 Englishv4
BERT-base-casedアーキテクチャに基づいて微調整された命名エンティティ識別モデルで、テキスト内のさまざまな種類の命名エンティティを識別するために特別に設計されています。
シーケンスラベリング Transformers
N
djagatiya
1,060
3
Ner Distilbert Base Uncased Ontonotesv5 Englishv4
distilbert-base-uncasedアーキテクチャに基づく固有表現認識モデルで、conll2012_ontonotesv5-english-v4データセットでファインチューニング済み
シーケンスラベリング Transformers
N
djagatiya
18
1
Roberta Large Finetuned Ner
MIT
RoBERTa-largeモデルをconll2003データセットでファインチューニングした固有表現認識モデルで、NERタスクで優れた性能を発揮します。
シーケンスラベリング Transformers
R
romainlhardy
39
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase