Modernbert Italian Finetuned Ner
MIT
基于Italian-ModernBERT-base微调的意大利语命名实体识别模型
序列标注
Transformers 其他

M
nickprock
110
1
Ner4legal SRB
Apache-2.0
针对塞尔维亚语法律文书优化的命名实体识别模型,基于BERT架构微调,用于自动提取法律文本中的关键实体信息。
序列标注
Transformers 其他

N
kalusev
54
1
Deid Roberta I2b2 NER Medical Reports
MIT
该模型是基于obi/deid_roberta_i2b2在未知数据集上微调的版本,主要用于文本处理任务。
序列标注
Transformers

D
theekshana
28
1
Gretel Gliner Bi Large V1.0
Apache-2.0
基于GLiNER架构微调的专用模型,用于高效识别个人身份信息(PII)和受保护健康信息(PHI)
序列标注 英语
G
gretelai
70
25
Gretel Gliner Bi Base V1.0
Apache-2.0
Gretel GLiNER是基于GLiNER基础模型微调的版本,专门用于检测个人身份信息(PII)和受保护健康信息(PHI)。
序列标注
PyTorch 英语
G
gretelai
80
6
Gretel Gliner Bi Small V1.0
Apache-2.0
专为PII/PHI检测优化的微调模型,基于GLiNER基础模型knowledgator/gliner-bi-small-v1.0
序列标注 英语
G
gretelai
49
7
Gliner Model Merge Large V1.0
Apache-2.0
基于模型融合技术优化的命名实体识别模型,F1分数提升3.25个点至0.6601
序列标注 英语
G
xomad
129
20
Eds Pseudo Public
Bsd-3-clause
EDS-Pseudo是一个用于检测医疗文档中识别实体的混合模型,主要应用于AP-HP临床数据仓库的临床报告匿名化处理。
序列标注 支持多种语言
E
AP-HP
4,373
15
Roberta Base Biomedical Clinical Es Ner
Apache-2.0
该模型是基于BSC-LT/roberta-base-biomedical-clinical-es在生物医学临床西班牙语文本上进行命名实体识别(NER)任务微调的版本。
序列标注
Transformers

R
manucos
25
1
Klue Roberta Small Ner Identified
基于klue/roberta-small微调的韩语命名实体识别模型,专注于个人信息脱敏
序列标注
Transformers 韩语

K
vitus9988
6,273
2
Mdeberta V3 Base Finetuned Ai4privacy V2
基于microsoft/mdeberta-v3-base微调的PII(个人身份信息)识别与掩码模型,支持多语言隐私数据处理
序列标注
Transformers 支持多种语言

M
Isotonic
380
7
Deberta V3 Base Finetuned Ai4privacy V2
该模型是基于Microsoft DeBERTa-v3-base架构微调的隐私保护模型,专门用于识别和掩码文本中的个人身份信息(PII)。
序列标注
Transformers 英语

D
Isotonic
33.35k
19
Multilingual Xlm Roberta For Ner
MIT
基于XLM-RoBERTa基础模型微调的命名实体识别模型,支持多语言,能识别地点、组织和人物三类实体。
序列标注
Transformers

M
Tirendaz
56
2
Bert Finetuned Tech Product Name Ner
Apache-2.0
基于BERT微调的命名实体识别模型,专门用于识别句子中的科技产品名称,如笔记本电脑和手机。
序列标注
Transformers

B
ashleyliu31
20
3
Span Marker Mbert Base Multinerd
这是一个基于MultiNERD数据集训练的多语言命名实体识别模型,支持20多种语言,使用bert-base-multilingual-cased作为底层编码器。
序列标注
TensorBoard 其他

S
tomaarsen
5,591
64
Bert Italian Finetuned Ner
MIT
基于dbmdz/bert-base-italian-cased微调的意大利语命名实体识别模型,在wiki_neural数据集上表现出色。
序列标注
Transformers 其他

B
nickprock
290
8
Bpmn Information Extraction V2
Apache-2.0
基于bert-base-cased微调的BPMN流程信息抽取模型,用于从文本化流程描述中提取执行者、任务等关键元素
序列标注
Transformers

B
jtlicardo
112.15k
14
Cv Parser
MIT
基于microsoft/mdeberta-v3-base微调的命名实体识别模型,在评估集上表现出色
序列标注
Transformers

C
nhanv
45
6
Tr Core News Trf
土耳其语转换器管道,用于TrSpaCy,包含转换器、标记器、形态分析器、词形还原器、解析器和命名实体识别器组件。
序列标注 其他
T
turkish-nlp-suite
208
16
Ner Vietnamese Electra Base
基于ELECTRA架构的越南语命名实体识别模型,在VLSP 2018数据集上微调
序列标注
Transformers 其他

N
NlpHUST
41.60k
15
Biobert Base Cased V1.2 Bc2gm Ner
基于BioBERT在bc2gm_corpus数据集上微调的生物医学命名实体识别模型
序列标注
Transformers

B
chintagunta85
26
3
Roberta Large NER
基于XLM-RoBERTa-large模型在英语CoNLL-2003数据集上微调的命名实体识别模型
序列标注 支持多种语言
R
51la5
60.39k
48
Legal Bert Ner Base Cased Ptbr
一个针对葡萄牙语法律文本的命名实体识别模型,基于BERT架构微调,用于识别法律文档中的特定实体类别。
序列标注
Transformers 其他

L
dominguesm
619
11
Ner Roberta Base Ontonotesv5 Englishv4
基于RoBERTa-base架构微调的英文命名实体识别模型,支持18种实体类型识别
序列标注
Transformers

N
djagatiya
47
2
Roberta Base Ca V2 Cased Ner
Apache-2.0
基于RoBERTa架构的加泰罗尼亚语命名实体识别模型,在AnCora-Ca-NER数据集上微调
序列标注
Transformers 其他

R
projecte-aina
986
0
Xlm Roberta Base Finetuned Panx All
MIT
基于xlm-roberta-base在多语言数据集上微调的命名实体识别模型
大型语言模型
Transformers

X
flood
15
0
Autotrain Company Vs All 902129475
这是一个使用AutoTrain训练的实体识别模型,具有高准确率和F1分数。
序列标注
Transformers 英语

A
ismail-lucifer011
15
0
Distilbert Cord Ner
Apache-2.0
基于Geotrend/distilbert-base-en-fr-de-no-da-cased微调的命名实体识别模型,在评估集上表现出色
序列标注
Transformers

D
renjithks
15
0
Hiner Original Xlm Roberta Large
该模型是基于XLM-RoBERTa-large架构在HiNER-original数据集上训练的命名实体识别模型,专门用于标记分类任务。
序列标注
Transformers

H
cfilt
56
1
Roberta Multilingual Medieval Ner
基于多语言RoBERTa模型微调的中世纪文本命名实体识别模型,支持拉丁语、法语和西班牙语的历史文献分析。
序列标注
Transformers 支持多种语言

R
magistermilitum
38
0
Albert Large V2 Finetuned Abbdet
Apache-2.0
该模型是基于ALBERT-large-v2在PLOD-unfiltered数据集上微调的命名实体识别(NER)模型,在科学文献领域表现优异。
序列标注
Transformers 英语

A
surrey-nlp
16
3
Roberta Finetuned Ner
MIT
基于xlm-roberta-base微调的命名实体识别(NER)模型,在评估集上表现出色(F1值0.9777)
序列标注
Transformers

R
kSaluja
25
0
Biobert Base Cased V1.2 Finetuned Ner CRAFT English
基于BioBERT的命名实体识别模型,在CRAFT英文数据集上微调
序列标注
Transformers

B
StivenLancheros
41
1
Biobert Base Cased V1.2 Finetuned Ner CRAFT
基于BioBERT在CRAFT语料库上微调的命名实体识别模型,用于识别生物医学文本中的6类实体
序列标注
Transformers

B
StivenLancheros
15
1
Nbailab Base Ner Scandi
MIT
适用于丹麦语、挪威语、瑞典语、冰岛语和法罗语的命名实体识别模型,基于NbAiLab/nb-bert-base微调而成
序列标注
Transformers 其他

N
saattrupdan
16.94k
22
XLMR ENIS Finetuned Ner
该模型是基于XLMR-ENIS在conll2003数据集上微调的命名实体识别模型,支持英语和冰岛语。
序列标注
Transformers 支持多种语言

X
vesteinn
90
1
Ner English Large
Flair框架内置的英文4类大型NER模型,基于文档级XLM-R嵌入和FLERT技术,在CoNLL-03数据集上F1分数达94.36。
序列标注 英语
N
flair
749.04k
44
Tner Xlm Roberta Large All English
基于XLM-RoBERTa微调的命名实体识别模型,支持英语文本中的实体识别任务。
序列标注
Transformers

T
asahi417
5,023
1
Bert Base Hungarian Cased Ner
MIT
基于SZTAKI-HLT/hubert-base-cc微调的匈牙利语命名实体识别模型,训练数据采用WikiANN数据集。
序列标注
Transformers 其他

B
akdeniz27
160
3
Jdt Fin Roberta Wwm
Apache-2.0
金融领域专项预训练语言模型,基于RoBERTa-wwm架构优化,提升金融任务表现
大型语言模型
Transformers 中文

J
wangfan
19
1
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98