Modernbert Ner Conll2003
Apache-2.0
ModernBERT-baseをファインチューニングした固有表現認識モデルで、CoNLL2003データセットで訓練されており、人物、組織、場所のエンティティ認識に優れています。
シーケンスラベリング
Transformers 英語

M
IsmaelMousa
40
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
hossay
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
murdockthedude
15
0
Distilbert Base Uncased Finetuned TT2 Exam
Apache-2.0
このモデルは、conll2003データセットでファインチューニングされたdistilbert-base-uncasedベースのバージョンで、タグ分類タスクに使用されます。
シーケンスラベリング
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデルで、conll2003データセットでファインチューニングされており、効率的な推論性能と高い精度を備えています。
シーケンスラベリング
Transformers

D
roschmid
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
このモデルはDistilBERTの軽量版をベースとしており、conll2003データセットで固有表現抽出タスク向けにファインチューニングされています。
シーケンスラベリング
Transformers

D
Udi-Aharon
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
これはDistilBERTベースの軽量モデルで、CoNLL-2003固有表現抽出(NER)タスクでファインチューニングされています。
シーケンスラベリング
Transformers

D
guhuawuli
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
ACSHCSE
15
0
Bert Base NER
MIT
BERT-baseをベースとした固有表現抽出モデルで、場所、組織、人名などの4種類のエンティティを識別可能
シーケンスラベリング
Transformers 英語

B
optimum
69
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデルで、conll2003データセットでファインチューニングされており、英語テキストのエンティティタグ付けタスクに適しています。
シーケンスラベリング
Transformers

D
tiennvcs
15
0
Distilbert Base Uncased Finetuned Pos
Apache-2.0
DistilBERTベースの軽量タグ分類モデル、conll2003データセットでファインチューニングされ、品詞タグ付けタスク用
シーケンスラベリング
Transformers

D
tbosse
17
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
MikhailGalperin
15
0
Distilroberta Base Ner Conll2003
Apache-2.0
distilroberta-baseをconll2003データセットでファインチューニングした固有表現認識モデル
シーケンスラベリング
Transformers

D
philschmid
103
3
Distilbert Base Cased Finetuned Conll03 English
Apache-2.0
DistilBERTベースの固有表現抽出モデルで、CoNLL-2003英語データセットでファインチューニングされており、大文字小文字を区別するテキスト処理に適しています。
シーケンスラベリング
Transformers 英語

D
elastic
7,431
14
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
srosy
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
thomaszz
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
cogito233
16
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデルで、conll2003データセットでファインチューニングされており、効率的な推論性能と高い精度を備えています。
シーケンスラベリング
Transformers

D
mackseem
16
0
Bert Tiny Finetuned Ner
このモデルはbert-tinyをconll2003データセットでファインチューニングした固有表現抽出(NER)モデルです
シーケンスラベリング
Transformers

B
gagan3012
89
4
XLMR ENIS Finetuned Ner
このモデルはXLMR-ENISをconll2003データセットでファインチューニングした固有表現認識モデルで、英語とアイスランド語をサポートしています。
シーケンスラベリング
Transformers 複数言語対応

X
vesteinn
90
1
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデルで、conll2003データセットでファインチューニングされており、英語テキストのエンティティラベリングタスクに適しています。
シーケンスラベリング
Transformers

D
chanaa
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
histinct7002
15
0
Deberta Base Fine Tuned Ner
MIT
conll2003データセットでファインチューニングされたDeBERTa-baseモデルに基づく固有表現認識(NER)モデル
シーケンスラベリング
Transformers

D
geckos
456
2
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
leonadase
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデル、conll2003データセットでファインチューニング済み
シーケンスラベリング
Transformers

D
Hank
15
0
Distilbert Base Uncased Finetuned Ner
Apache-2.0
DistilBERTベースの軽量な固有表現抽出モデルで、conll2003データセットでファインチューニングされており、英語テキストの固有表現抽出タスクに適しています。
シーケンスラベリング
Transformers

D
Minowa
15
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98