# 高精度エンティティ認識

Modernbert Italian Finetuned Ner
MIT
Italian-ModernBERT-baseをファインチューニングしたイタリア語固有表現認識モデル
シーケンスラベリング Transformers その他
M
nickprock
110
1
Ner4legal SRB
Apache-2.0
セルビア語の法律文書に最適化された固有表現認識モデル。BERTアーキテクチャを基にファインチューニングされ、法律テキストから重要なエンティティ情報を自動抽出します。
シーケンスラベリング Transformers その他
N
kalusev
54
1
Deid Roberta I2b2 NER Medical Reports
MIT
このモデルはobi/deid_roberta_i2b2を未知のデータセットでファインチューニングしたバージョンで、主にテキスト処理タスクに使用されます。
シーケンスラベリング Transformers
D
theekshana
28
1
Gretel Gliner Bi Large V1.0
Apache-2.0
GLiNERアーキテクチャをファインチューニングした専用モデルで、個人識別情報(PII)と保護対象健康情報(PHI)を効率的に識別
シーケンスラベリング 英語
G
gretelai
70
25
Gretel Gliner Bi Base V1.0
Apache-2.0
Gretel GLiNERはGLiNERベースモデルをファインチューニングしたバージョンで、個人識別情報(PII)や保護対象健康情報(PHI)の検出に特化しています。
シーケンスラベリング PyTorch 英語
G
gretelai
80
6
Gretel Gliner Bi Small V1.0
Apache-2.0
PII/PHI検出に最適化されたファインチューニングモデル、GLiNERベースモデルknowledgator/gliner-bi-small-v1.0を基に
シーケンスラベリング 英語
G
gretelai
49
7
Gliner Model Merge Large V1.0
Apache-2.0
モデル融合技術で最適化された固有表現認識モデル、F1スコアが3.25ポイント向上し0.6601に
シーケンスラベリング 英語
G
xomad
129
20
Eds Pseudo Public
Bsd-3-clause
EDS-Pseudoは医療文書内のエンティティを検出するハイブリッドモデルで、主にAP-HP臨床データウェアハウスの臨床報告匿名化処理に使用されます。
シーケンスラベリング 複数言語対応
E
AP-HP
4,373
15
Roberta Base Biomedical Clinical Es Ner
Apache-2.0
このモデルはBSC-LT/roberta-base-biomedical-clinical-esを基に、生物医学臨床スペイン語テキストにおける固有表現抽出(NER)タスク用にファインチューニングされたバージョンです。
シーケンスラベリング Transformers
R
manucos
25
1
Klue Roberta Small Ner Identified
klue/roberta-smallをファインチューニングした韓国語固有表現認識モデル、個人情報匿名化に特化
シーケンスラベリング Transformers 韓国語
K
vitus9988
6,273
2
Mdeberta V3 Base Finetuned Ai4privacy V2
microsoft/mdeberta-v3-baseをファインチューニングしたPII(個人識別情報)識別とマスキングモデルで、多言語プライバシーデータ処理をサポート
シーケンスラベリング Transformers 複数言語対応
M
Isotonic
380
7
Deberta V3 Base Finetuned Ai4privacy V2
このモデルはMicrosoft DeBERTa-v3-baseアーキテクチャをファインチューニングしたプライバシー保護モデルで、テキスト内の個人識別情報(PII)の識別とマスキングに特化しています。
シーケンスラベリング Transformers 英語
D
Isotonic
33.35k
19
Multilingual Xlm Roberta For Ner
MIT
XLM-RoBERTaベースモデルをファインチューニングした固有表現認識モデルで、多言語対応可能。場所、組織、人物の3種類のエンティティを認識できます。
シーケンスラベリング Transformers
M
Tirendaz
56
2
Bert Finetuned Tech Product Name Ner
Apache-2.0
BERTをファインチューニングした固有表現認識モデルで、文の中の技術製品名(ノートパソコンやスマートフォンなど)を識別するために特別に設計されています。
シーケンスラベリング Transformers
B
ashleyliu31
20
3
Span Marker Mbert Base Multinerd
これはMultiNERDデータセットで訓練された多言語固有表現認識モデルで、20以上の言語をサポートし、bert-base-multilingual-casedを基盤エンコーダーとして使用しています。
シーケンスラベリング TensorBoard その他
S
tomaarsen
5,591
64
Bpmn Information Extraction V2
Apache-2.0
bert-base-casedをファインチューニングしたBPMNプロセス情報抽出モデルで、テキスト化されたプロセス記述から実行者、タスクなどの主要要素を抽出
シーケンスラベリング Transformers
B
jtlicardo
112.15k
14
Cv Parser
MIT
microsoft/mdeberta-v3-baseを微調整した固有表現認識モデルで、評価データセットで優れた性能を発揮
シーケンスラベリング Transformers
C
nhanv
45
6
Ner Vietnamese Electra Base
ELECTRAアーキテクチャに基づくベトナム語固有表現認識モデルで、VLSP 2018データセットでファインチューニングされています
シーケンスラベリング Transformers その他
N
NlpHUST
41.60k
15
Biobert Base Cased V1.2 Bc2gm Ner
BioBERTをbc2gm_corpusデータセットでファインチューニングした生物医学命名エンティティ認識モデル
シーケンスラベリング Transformers
B
chintagunta85
26
3
Ner Roberta Base Ontonotesv5 Englishv4
RoBERTa-baseアーキテクチャをファインチューニングした英語固有表現認識モデル、18種類のエンティティタイプを認識可能
シーケンスラベリング Transformers
N
djagatiya
47
2
Roberta Base Ca V2 Cased Ner
Apache-2.0
RoBERTaアーキテクチャに基づくカタルーニャ語固有表現認識モデル、AnCora-Ca-NERデータセットでファインチューニング
シーケンスラベリング Transformers その他
R
projecte-aina
986
0
Xlm Roberta Base Finetuned Panx All
MIT
xlm-roberta-baseを多言語データセットでファインチューニングした固有表現認識モデル
大規模言語モデル Transformers
X
flood
15
0
Autotrain Company Vs All 902129475
これはAutoTrainでトレーニングされた高精度なF1スコアを持つエンティティ認識モデルです。
シーケンスラベリング Transformers 英語
A
ismail-lucifer011
15
0
Distilbert Cord Ner
Apache-2.0
Geotrend/distilbert-base-en-fr-de-no-da-casedをファインチューニングした固有表現認識モデルで、評価データセットで優れた性能を発揮
シーケンスラベリング Transformers
D
renjithks
15
0
Hiner Original Xlm Roberta Large
このモデルは、XLM - RoBERTa - largeアーキテクチャに基づき、HiNER - originalデータセットで訓練された固有表現認識モデルで、ラベル分類タスクに特化しています。
シーケンスラベリング Transformers
H
cfilt
56
1
Roberta Multilingual Medieval Ner
多言語RoBERTaモデルをファインチューニングした中世テキスト固有表現認識モデルで、ラテン語、フランス語、スペイン語の歴史文献分析をサポートします。
シーケンスラベリング Transformers 複数言語対応
R
magistermilitum
38
0
Albert Large V2 Finetuned Abbdet
Apache-2.0
このモデルはALBERT-large-v2をPLOD-unfilteredデータセットで微調整した固有表現抽出(NER)モデルで、科学文献分野で優れた性能を発揮します。
シーケンスラベリング Transformers 英語
A
surrey-nlp
16
3
Roberta Finetuned Ner
MIT
xlm-roberta-baseをファインチューニングした固有表現抽出(NER)モデルで、評価データセットで優れた性能(F1スコア0.9777)を発揮
シーケンスラベリング Transformers
R
kSaluja
25
0
Biobert Base Cased V1.2 Finetuned Ner CRAFT English
BioBERTに基づく名前付きエンティティ認識モデルで、CRAFT英語データセットで微調整されました。
シーケンスラベリング Transformers
B
StivenLancheros
41
1
Biobert Base Cased V1.2 Finetuned Ner CRAFT
CRAFTコーパスでファインチューニングされたBioBERTベースの固有表現認識モデル、バイオメディカルテキスト内の6種類のエンティティを識別
シーケンスラベリング Transformers
B
StivenLancheros
15
1
Xlm Roberta Base Finetuned Panx All
MIT
XLM-RoBERTa-baseモデルをPAN-Xデータセットでファインチューニングした多言語固有表現認識モデル
シーケンスラベリング Transformers
X
transformersbook
15
4
Bert Spanish Cased Finetuned Ner
スペイン語BERT大文字小文字区別版(BETO)をNER-Cデータセットでファインチューニングしたバージョンで、固有表現認識(NER)タスク専用です。
シーケンスラベリング スペイン語
B
mrm8488
77.49k
21
Tner Xlm Roberta Large All English
XLM-RoBERTaをファインチューニングした固有表現認識モデルで、英語テキストのエンティティ認識タスクをサポートします。
シーケンスラベリング Transformers
T
asahi417
5,023
1
Tner Xlm Roberta Base Uncased Ontonotes5
これは固有表現認識タスクでファインチューニングされたXLM-RoBERTaモデルで、多言語テキストにおけるエンティティ認識タスクに適しています。
シーケンスラベリング Transformers
T
asahi417
605
1
Tempclin Biobertpt All
BioBERTpt(フルバージョン)でトレーニングされたポルトガル語臨床テキスト固有表現認識モデルで、TempClinBrコーパス内の医療エンティティ認識専用
シーケンスラベリング Transformers その他
T
pucpr
16
1
Ner Bert Large Cased Pt Lenerbr
ポルトガル語法律分野向け固有表現認識モデル、BERT大規模アーキテクチャをファインチューニング
シーケンスラベリング Transformers その他
N
pierreguillou
259
21
Bert Base Turkish Cased Ner
MIT
dbmdz/bert-base-turkish-casedモデルをファインチューニングしたトルコ語固有表現認識モデルで、人名、組織名、地名などのエンティティを認識できます。
シーケンスラベリング Transformers その他
B
akdeniz27
115.25k
23
Roberta Base MITmovie
Roberta Baseモデルを基に、MIT映画データセットを使用して固有表現認識タスクを訓練したモデル
シーケンスラベリング
R
thatdramebaazguy
34
1
Xlm Roberta Base Turkish Ner
MIT
xlm-roberta-baseをファインチューニングしたトルコ語固有表現認識モデルで、トルコ語テキスト内の人名、組織名、地名を識別します。
シーケンスラベリング Transformers その他
X
akdeniz27
113
6
Ner German Legal
Flairフレームワークに組み込まれたドイツ語法律固有表現認識モデルで、法律テキスト向けに設計されており、19種類の法律エンティティ認識をサポート
シーケンスラベリング ドイツ語
N
flair
22.32k
22
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase