Electra Small Ner
Apache-2.0
electra-smallをファインチューニングした命名エンティティ認識モデルで、場所、人名、組織の3種類のエンティティを認識できます。
シーケンスラベリング
Transformers 英語

E
rv2307
74
3
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量級の命名エンティティ認識モデルで、未知のデータセットで微調整され、効率的な推論速度と良好なエンティティ認識能力を持っています。
シーケンスラベリング
Transformers

D
malduwais
17
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量な命名エンティティ認識モデルで、特定のデータセットで微調整され、英文テキストのエンティティ認識タスクに適しています。
シーケンスラベリング
Transformers

D
mcdzwil
15
0
Bert Large Uncased Whole Word Masking Squad2 With Ner Conll2003 With Neg With Repeat
BERT-largeアーキテクチャに基づくモデルで、SQuAD 2.0とCoNLL-2003データセットで微調整され、问答と命名エンティティ認識タスクをサポートします。
シーケンスラベリング
Transformers 英語

B
andi611
18
0
Distilbert Base Uncased Squad2 With Ner With Neg With Multi
DistilBERTベースの问答と命名エンティティ認識のマルチタスクモデルで、conll2003データセットで微調整されています。
質問応答システム
Transformers

D
andi611
20
0
BERT NER Ep5 Finetuned Ner
Apache-2.0
bert-base-casedをベースに微調整した命名エンティティ認識(NER)モデルで、評価セットでのF1値は0.6868に達します。
シーケンスラベリング
Transformers

B
suwani
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
distilbert-base-uncasedモデルをwikiannデータセットで微調整した命名エンティティ認識モデルで、評価セットでF1値0.8210の優れた成績を収めました。
シーケンスラベリング
Transformers

D
dbsamu
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量級命名エンティティ認識モデルで、conll2003データセットで微調整されました。
シーケンスラベリング
Transformers

D
lucasmtz
14
0
Bert Finetuned Ner
Apache-2.0
BERT-base-casedをベースにconll2003データセットで微調整された命名エンティティ認識モデル
シーケンスラベリング
Transformers

B
huggingface-course
3,835
15
Rubert Ner Toxicity
ruBERT-tinyをベースに微調整したロシア語毒性テキストの命名エンティティ認識モデルで、テキスト中の毒性コンテンツを識別できます。
シーケンスラベリング
Transformers

R
tesemnikov-av
59
2
Albert Base Chinese Pos
Gpl-3.0
中央研究院の語彙チームによって開発された繁体字中国語の自然言語処理モデルで、形態素解析、品詞タグ付けなどのタスクをサポートします。
シーケンスラベリング
Transformers 中国語

A
ckiplab
1,095
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTに基づく軽量級の命名エンティティ認識モデルで、conll2003データセットで微調整され、効率的な推論性能と高い精度を持っています。
シーケンスラベリング
Transformers

D
indridinn
15
0
Bert Large NER
MIT
BERT-largeを微調整した命名エンティティ認識モデルで、CoNLL-2003データセットで最先端の性能を実現
シーケンスラベリング 英語
B
dslim
360.98k
150
Bert Base Multilingual Cased Finetuned Naija
これはナイジェリアピジン語に最適化されたBERTモデルで、多言語BERTを微調整して作成され、命名エンティティ認識タスクでは元の多言語BERTよりも優れた性能を発揮します。
大規模言語モデル
Transformers

B
Davlan
13
0
Bert Base Swedish Cased Ner
スウェーデン国立図書館/KBLabが公開したスウェーデン語のBERT基礎モデル。多ソースのテキストデータを基に学習されています。
大規模言語モデル その他
B
KBLab
245
5
Albert Base V2 Finetuned Ner
Apache-2.0
このモデルは、ALBERT-base-v2アーキテクチャに基づき、conll2003データセットで微調整された命名エンティティ認識(NER)モデルで、エンティティ認識タスクで優れた性能を発揮します。
シーケンスラベリング
Transformers

A
ArBert
20
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98