M

Muppet Roberta Base

由facebook開發
通過預微調實現的大規模多任務表徵模型,基於RoBERTa架構,在GLUE和問答任務上表現優於原始roberta-base
下載量 425
發布時間 : 3/2/2022

模型概述

該模型是基於RoBERTa架構的大規模多任務預微調版本,通過掩碼語言建模目標進行預訓練,適用於自然語言處理任務的特徵提取和微調

模型特點

大規模多任務預微調
通過預微調階段在多任務上訓練,提升了模型在下游任務的表現
優於原始RoBERTa-base
在GLUE和問答任務上表現優於原始roberta-base,特別是在小型數據集上提升顯著
雙向上下文理解
採用掩碼語言建模目標,能夠學習句子的雙向表徵

模型能力

文本特徵提取
句子分類
問答系統
自然語言理解

使用案例

文本分類
情感分析
對文本進行正面/負面情感分類
在SST-2數據集上達到96.7%準確率
問答系統
閱讀理解
基於給定文本回答問題
在SQuAD數據集上達到86.6%準確率
自然語言推理
文本蘊含判斷
判斷兩個句子之間的邏輯關係
在MNLI數據集上達到88.1%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase