M

Muppet Roberta Large

由facebook開發
RoBERTa大型模型的大規模多任務預微調版本,在GLUE和問答任務上表現優異,尤其在小數據集上提升顯著。
下載量 26
發布時間 : 3/2/2022

模型概述

該模型是基於大規模英文語料庫通過自監督方式預訓練的transformers模型,採用掩碼語言建模(MLM)目標進行預訓練,學習英語語言的雙向表徵,適用於序列分類、標記分類或問答等任務。

模型特點

大規模多任務預微調
通過預微調在多任務上優化模型,提升在下游任務的表現,尤其在小數據集上效果顯著。
雙向表徵學習
採用掩碼語言建模目標,學習句子的雙向表徵,適用於需要完整句子信息的任務。
廣泛的下游任務適用性
適用於序列分類、標記分類、問答等多種自然語言處理任務。

模型能力

掩碼語言建模
序列分類
標記分類
問答

使用案例

自然語言處理
文本分類
對文本進行情感分析、主題分類等任務。
在SST-2數據集上達到97.4的準確率。
問答系統
構建自動問答系統,回答基於給定文本的問題。
在SQuAD數據集上達到89.4的F1分數。
自然語言推理
判斷兩個句子之間的邏輯關係(蘊含、矛盾或中立)。
在MNLI數據集上達到90.8的準確率。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase