Gliner Large V2.5
Apache-2.0
GLiNER 是一個通用的命名實體識別(NER)模型,能夠識別任何類型的實體,為傳統 NER 模型提供了實用的替代方案。
序列標註 其他
G
gliner-community
2,896
18
Gliner Medium V2.5
Apache-2.0
GLiNER是一個通用的命名實體識別(NER)模型,能夠識別任何類型的實體,為傳統NER模型提供了實用替代方案,同時解決了大型語言模型資源消耗高的問題。
序列標註 其他
G
gliner-community
678
7
Gliner Small V2.5
Apache-2.0
GLiNER 是一個通用的命名實體識別(NER)模型,能夠通過雙向 Transformer 編碼器識別任何實體類型。
序列標註
PyTorch
G
gliner-community
2,252
6
Gliner Large V2.1
Apache-2.0
GLiNER 是一個通用的命名實體識別(NER)模型,能夠識別任何類型的實體,為傳統 NER 模型和大型語言模型提供了實用的替代方案。
序列標註 其他
G
urchade
10.31k
34
Gliner Multi V2.1
Apache-2.0
GLiNER 是一個通用的命名實體識別(NER)模型,能夠識別任何實體類型,為傳統 NER 模型提供了實用替代方案。
序列標註 其他
G
urchade
5,018
119
Gliner Multi
GLiNER是一個多語言命名實體識別(NER)模型,能夠通過雙向Transformer編碼器識別任何實體類型,為傳統NER模型提供了靈活替代方案。
序列標註 其他
G
urchade
1,459
128
Distilbert Base Multi Cased Ner
這是一個基於DistilBERT的多語言命名實體識別(NER)模型,支持10種語言,經過量化處理兼容Transformers.js。
序列標註
Transformers 支持多種語言

D
vgorce
16
1
Multilingual Xlm Roberta For Ner
MIT
基於XLM-RoBERTa基礎模型微調的命名實體識別模型,支持多語言,能識別地點、組織和人物三類實體。
序列標註
Transformers

M
Tirendaz
56
2
Span Marker Mbert Base Multinerd
這是一個基於MultiNERD數據集訓練的多語言命名實體識別模型,支持20多種語言,使用bert-base-multilingual-cased作為底層編碼器。
序列標註
TensorBoard 其他

S
tomaarsen
5,591
64
Cv Parser
MIT
基於microsoft/mdeberta-v3-base微調的命名實體識別模型,在評估集上表現出色
序列標註
Transformers

C
nhanv
45
6
Roberta Large NER
基於XLM-RoBERTa-large模型在英語CoNLL-2003數據集上微調的命名實體識別模型
序列標註 支持多種語言
R
51la5
60.39k
48
Roberta Ner Multilingual
MIT
基於RoBERTa架構的多語言命名實體識別模型,支持20種語言的實體識別任務。
序列標註
Transformers 支持多種語言

R
julian-schelb
493
10
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的跨語言模型,主要用於命名實體識別任務。
大型語言模型
Transformers

X
andreaschandra
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基於XLM-RoBERTa-base模型在特定數據集上微調的版本,主要用於序列標註任務,評估F1分數為0.8561。
大型語言模型
Transformers

X
huangjia
29
0
Xlm Roberta Base Finetuned Panx En
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上進行微調的標記分類模型,用於命名實體識別任務
序列標註
Transformers

X
Eleven
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的版本,主要用於序列標註任務。
大型語言模型
Transformers

X
haesun
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基於xlm-roberta-base在多語言數據集上微調的命名實體識別模型
大型語言模型
Transformers

X
flood
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的跨語言模型
大型語言模型
Transformers

X
skr3178
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基於XLM-RoBERTa-base模型在PAN-X德語數據集上微調的標記分類模型
序列標註
Transformers

X
skr3178
18
0
Distilbert Cord Ner
Apache-2.0
基於Geotrend/distilbert-base-en-fr-de-no-da-cased微調的命名實體識別模型,在評估集上表現出色
序列標註
Transformers

D
renjithks
15
0
Xlm Roberta Base Finetuned Panx De
MIT
基於xlm-roberta-base在xtreme數據集上微調的德語標記分類模型
序列標註
Transformers

X
dfsj
15
0
Hiner Original Xlm Roberta Large
該模型是基於XLM-RoBERTa-large架構在HiNER-original數據集上訓練的命名實體識別模型,專門用於標記分類任務。
序列標註
Transformers

H
cfilt
56
1
Xlm Roberta Base Finetuned Panx De
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的德語標記分類模型
序列標註
Transformers

X
davidenam
27
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的跨語言模型,主要用於命名實體識別任務。
大型語言模型
Transformers

X
danhsf
15
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於xlm-roberta-base在德語和法語數據集上微調的跨語言模型,主要用於命名實體識別任務。
序列標註
Transformers

X
edwardjross
14
0
Roberta Finetuned Ner
MIT
基於xlm-roberta-base微調的命名實體識別(NER)模型,在評估集上表現出色(F1值0.9777)
序列標註
Transformers

R
kSaluja
25
0
Xlm Roberta Base Finetuned Panx De
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的德語標記分類模型,用於命名實體識別任務。
序列標註
Transformers

X
frahman
25
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的版本,主要用於命名實體識別任務。
大型語言模型
Transformers

X
osanseviero
14
0
Distilbert Base Multilingual Cased Finetuned Conll2003 Ner
這是一個基於DistilBERT的多語言模型,專門用於命名實體識別任務,在ConLL 2003數據集上微調訓練。
序列標註
Transformers 支持多種語言

D
gunghio
73
3
Xx Ent Wiki Sm
MIT
針對CPU優化的多語言命名實體識別模型,支持識別地點、組織、人物等實體類型
序列標註 其他
X
spacy
245
8
Xlm Roberta Base Finetuned Panx De
MIT
該模型是基於xlm-roberta-base在xtreme數據集上微調的版本,用於德語標記分類任務。
序列標註
Transformers

X
osanseviero
14
0
Ner Multi Fast
一個快速的4類命名實體識別模型,支持英語、德語、荷蘭語和西班牙語,基於Flair框架和LSTM-CRF架構。
序列標註 支持多種語言
N
flair
70
6
Tner Xlm Roberta Large All English
基於XLM-RoBERTa微調的命名實體識別模型,支持英語文本中的實體識別任務。
序列標註
Transformers

T
asahi417
5,023
1
Xlm Roberta Base Finetuned Panx All
MIT
基於XLM-RoBERTa-base模型在PAN-X數據集上微調的多語言命名實體識別模型
序列標註
Transformers

X
transformersbook
15
4
Ner Multi
Flair內置的標準4類NER模型,適用於英語、德語、荷蘭語和西班牙語的命名實體識別任務
序列標註 支持多種語言
N
flair
6,369
8
XLMR ENIS Finetuned Ner
該模型是基於XLMR-ENIS在conll2003數據集上微調的命名實體識別模型,支持英語和冰島語。
序列標註
Transformers 支持多種語言

X
vesteinn
90
1
Tner Xlm Roberta Base Ontonotes5
基於XLM-RoBERTa微調的命名實體識別模型,支持英語文本中的實體標記分類任務。
序列標註
Transformers 英語

T
asahi417
17.30k
5
Tner Xlm Roberta Base Uncased Ontonotes5
這是一個在命名實體識別任務上微調的XLM-RoBERTa模型,適用於多語言文本中的實體識別任務。
序列標註
Transformers

T
asahi417
605
1
Tf Xlm R Ner 40 Lang
基於XLM-Roberta-base的多語言命名實體識別模型,支持40種語言的實體識別
序列標註
Transformers 支持多種語言

T
jplu
969
25
Wikineural Multilingual Ner
基於神經網絡與知識庫融合的多語言命名實體識別模型,支持9種語言
序列標註
Transformers 支持多種語言

W
Babelscape
258.08k
142
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98