R

Roberta Large Mnli

由typeform開發
XLM-RoBERTa是基於RoBERTa架構的多語言預訓練模型,支持100種語言,在跨語言理解任務中表現優異。
下載量 119
發布時間 : 3/2/2022

模型概述

XLM-RoBERTa是Facebook AI基於RoBERTa架構開發的多語言預訓練模型,通過大規模多語言語料訓練,支持100種語言的文本理解與生成任務。

模型特點

多語言支持
支持100種語言的文本處理,在跨語言任務中表現優異
大規模預訓練
基於2.5TB的CommonCrawl數據進行預訓練,覆蓋多種語言
零樣本學習能力
能夠在未見過的語言和任務上表現良好

模型能力

文本分類
序列標註
問答系統
文本生成
跨語言理解
零樣本學習

使用案例

內容審核
多語言有害內容檢測
自動識別多種語言中的有害或不當內容
在多種語言上達到90%以上的準確率
客戶服務
多語言客服系統
處理來自不同語言客戶的查詢和請求
支持100種語言的自動回覆
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase