# 命名エンティティ認識

Electra Small Ner
Apache-2.0
electra-smallをファインチューニングした命名エンティティ認識モデルで、場所、人名、組織の3種類のエンティティを認識できます。
シーケンスラベリング Transformers 英語
E
rv2307
74
3
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量級の命名エンティティ認識モデルで、未知のデータセットで微調整され、効率的な推論速度と良好なエンティティ認識能力を持っています。
シーケンスラベリング Transformers
D
malduwais
17
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量な命名エンティティ認識モデルで、特定のデータセットで微調整され、英文テキストのエンティティ認識タスクに適しています。
シーケンスラベリング Transformers
D
mcdzwil
15
0
Bert Large Uncased Whole Word Masking Squad2 With Ner Conll2003 With Neg With Repeat
BERT-largeアーキテクチャに基づくモデルで、SQuAD 2.0とCoNLL-2003データセットで微調整され、问答と命名エンティティ認識タスクをサポートします。
シーケンスラベリング Transformers 英語
B
andi611
18
0
Distilbert Base Uncased Squad2 With Ner With Neg With Multi
DistilBERTベースの问答と命名エンティティ認識のマルチタスクモデルで、conll2003データセットで微調整されています。
質問応答システム Transformers
D
andi611
20
0
BERT NER Ep5 Finetuned Ner
Apache-2.0
bert-base-casedをベースに微調整した命名エンティティ認識(NER)モデルで、評価セットでのF1値は0.6868に達します。
シーケンスラベリング Transformers
B
suwani
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
distilbert-base-uncasedモデルをwikiannデータセットで微調整した命名エンティティ認識モデルで、評価セットでF1値0.8210の優れた成績を収めました。
シーケンスラベリング Transformers
D
dbsamu
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量級命名エンティティ認識モデルで、conll2003データセットで微調整されました。
シーケンスラベリング Transformers
D
lucasmtz
14
0
Bert Finetuned Ner
Apache-2.0
BERT-base-casedをベースにconll2003データセットで微調整された命名エンティティ認識モデル
シーケンスラベリング Transformers
B
huggingface-course
3,835
15
Rubert Ner Toxicity
ruBERT-tinyをベースに微調整したロシア語毒性テキストの命名エンティティ認識モデルで、テキスト中の毒性コンテンツを識別できます。
シーケンスラベリング Transformers
R
tesemnikov-av
59
2
Albert Base Chinese Pos
Gpl-3.0
中央研究院の語彙チームによって開発された繁体字中国語の自然言語処理モデルで、形態素解析、品詞タグ付けなどのタスクをサポートします。
シーケンスラベリング Transformers 中国語
A
ckiplab
1,095
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量級の命名エンティティ認識モデルで、conll2003データセットで微調整され、効率的な推論性能と高い精度を持っています。
シーケンスラベリング Transformers
D
indridinn
15
0
Bert Large NER
MIT
BERT-largeを微調整した命名エンティティ認識モデルで、CoNLL-2003データセットで最先端の性能を実現
シーケンスラベリング 英語
B
dslim
360.98k
150
Bert Base Multilingual Cased Finetuned Naija
これはナイジェリアピジン語に最適化されたBERTモデルで、多言語BERTを微調整して作成され、命名エンティティ認識タスクでは元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル Transformers
B
Davlan
13
0
Bert Base Swedish Cased Ner
スウェーデン国立図書館/KBLabが公開したスウェーデン語のBERT基礎モデル。多ソースのテキストデータを基に学習されています。
大規模言語モデル その他
B
KBLab
245
5
Albert Base V2 Finetuned Ner
Apache-2.0
このモデルは、ALBERT-base-v2アーキテクチャに基づき、conll2003データセットで微調整された命名エンティティ認識(NER)モデルで、エンティティ認識タスクで優れた性能を発揮します。
シーケンスラベリング Transformers
A
ArBert
20
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase