E

Efficient Mlm M0.15 801010

由princeton-nlp開發
採用預層歸一化技術的 RoBERTa 模型,研究掩碼語言建模中遮蔽比例的影響
下載量 114
發布時間 : 4/22/2022

模型概述

該模型是基於 RoBERTa 架構改進的預訓練語言模型,主要研究在掩碼語言建模任務中遮蔽內容比例對模型性能的影響。採用了 HuggingFace 暫不支持的預層歸一化技術。

模型特點

預層歸一化技術
採用 HuggingFace 官方庫暫不支持的預層歸一化架構,可能提升訓練穩定性
遮蔽比例研究
專門研究掩碼語言建模中15%遮蔽比例是否最優的問題
兼容 HuggingFace
雖然使用特殊架構,但仍可通過定製代碼與 HuggingFace 生態兼容

模型能力

掩碼語言建模
文本表徵學習
序列分類

使用案例

自然語言處理研究
遮蔽比例優化研究
用於研究不同遮蔽比例對預訓練語言模型性能的影響
文本理解
文本分類
通過微調可用於各類文本分類任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase