B

Bert Large Uncased Whole Word Masking Squad2 With Ner Conll2003 With Neg With Repeat

由 andi611 开发
基于BERT-large架构的模型,在SQuAD 2.0和CoNLL-2003数据集上微调,支持问答和命名实体识别任务
下载量 18
发布时间 : 3/2/2022

模型简介

该模型是在squad_v2和conll2003数据集上微调的BERT-large版本,主要用于问答系统和命名实体识别任务。

模型特点

多任务能力
同时支持问答系统和命名实体识别两种NLP任务
全词掩码训练
采用whole word masking技术进行预训练,提升模型理解能力
大型模型架构
基于BERT-large架构,具有更强的表征能力

模型能力

问答系统
命名实体识别
文本理解
上下文分析

使用案例

信息提取
文档问答系统
从文档中提取问题的精确答案
在SQuAD 2.0数据集上表现良好
文本分析
实体识别
识别文本中的人名、地名、组织名等实体
在CoNLL-2003数据集上表现良好
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase