E

Efficient Mlm M0.15 801010

由 princeton-nlp 开发
采用预层归一化技术的 RoBERTa 模型,研究掩码语言建模中遮蔽比例的影响
下载量 114
发布时间 : 4/22/2022

模型简介

该模型是基于 RoBERTa 架构改进的预训练语言模型,主要研究在掩码语言建模任务中遮蔽内容比例对模型性能的影响。采用了 HuggingFace 暂不支持的预层归一化技术。

模型特点

预层归一化技术
采用 HuggingFace 官方库暂不支持的预层归一化架构,可能提升训练稳定性
遮蔽比例研究
专门研究掩码语言建模中15%遮蔽比例是否最优的问题
兼容 HuggingFace
虽然使用特殊架构,但仍可通过定制代码与 HuggingFace 生态兼容

模型能力

掩码语言建模
文本表征学习
序列分类

使用案例

自然语言处理研究
遮蔽比例优化研究
用于研究不同遮蔽比例对预训练语言模型性能的影响
文本理解
文本分类
通过微调可用于各类文本分类任务
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase