E

Erlangshen DeBERTa V2 710M Chinese

由 IDEA-CCNL 开发
这是一个专注于中文自然语言理解任务的710M参数DeBERTa-v2模型,采用全词掩码方式预训练,为中文NLP领域提供强大支持。
下载量 246
发布时间 : 8/16/2022

模型简介

二郎神-DeBERTa-v2-710M-中文模型是基于DeBERTa-v2架构的中文预训练模型,擅长处理自然语言理解任务,采用全词掩码方式提升预训练效果。

模型特点

全词掩码预训练
采用全词掩码(wwm)方式,提升预训练效果
强大语言理解能力
基于7.1亿参数的DeBERTa-v2-XLarge架构,具备强大的语言理解能力
中文优化
专门针对中文NLP任务进行优化,在多个中文NLU任务中表现优异

模型能力

文本理解
语义分析
文本补全

使用案例

自然语言理解
情感分析
分析文本中的情感倾向
文本分类
对文本内容进行分类
语言模型任务
掩码语言建模
预测被掩码的词语
在多个中文NLU任务中表现优于RoBERTa-base/large
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase