R

Roberta Large

由FacebookAI開發
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
下載量 19.4M
發布時間 : 3/2/2022

模型概述

RoBERTa是基於海量英文語料通過自監督方式預訓練的transformer模型,主要用於提取文本特徵和下游任務微調

模型特點

動態掩碼策略
與BERT不同,採用動態掩碼機制,每輪迭代生成不同的掩碼模式
大規模訓練數據
使用160GB文本數據訓練,包括書籍、維基百科、新聞等多種來源
優化訓練過程
採用更大的批量(8K)和更長的序列(512),訓練50萬步

模型能力

文本特徵提取
掩碼詞彙預測
下游任務微調

使用案例

自然語言處理
序列分類
用於情感分析、文本分類等任務
在SST-2情感分析任務上達到96.4分
問答系統
作為問答系統的基礎模型
在QNLI任務上達到94.7分
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase