R

Roberta Base

由FacebookAI開發
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
下載量 9.3M
發布時間 : 3/2/2022

模型概述

採用動態掩碼策略的雙向Transformer模型,優化了BERT的預訓練方法,適用於序列分類、標記分類等NLP任務

模型特點

動態掩碼策略
採用更高效的動態掩碼方式,相比靜態掩碼能學習更全面的上下文表徵
大規模訓練數據
融合5個數據集共計160GB文本,覆蓋書籍、新聞、百科等多種文體
優化訓練配置
使用8K批量大小和512序列長度進行500K步訓練,採用Adam優化器與學習率預熱策略

模型能力

文本特徵提取
掩碼語言預測
序列分類
標記分類
問答任務

使用案例

文本理解
情感分析
對評論/推文進行情感傾向分類
在SST-2數據集準確率達94.8%
文本相似度計算
衡量兩段文本的語義相似度
在STS-B數據集得分為91.2
信息抽取
命名實體識別
從文本中識別人物/地點/組織等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase