X

Xlm Roberta Large

由kornesh開發
XLM-RoBERTa-large 是一個基於 RoBERTa 架構的多語言預訓練語言模型,支持多種語言的自然語言處理任務。
下載量 2,154
發布時間 : 3/2/2022

模型概述

XLM-RoBERTa-large 是一個大規模多語言預訓練模型,基於 RoBERTa 架構改進而來,適用於多種跨語言的自然語言處理任務,如文本分類、命名實體識別、問答等。

模型特點

多語言支持
支持100多種語言,適用於跨語言的自然語言處理任務。
大規模預訓練
基於RoBERTa架構的大規模預訓練,具有強大的語言理解能力。
高效微調
可以通過微調適應多種下游任務,如文本分類、命名實體識別等。

模型能力

文本分類
命名實體識別
問答
文本生成
語言理解

使用案例

自然語言處理
跨語言文本分類
對多種語言的文本進行分類,如情感分析、主題分類等。
高準確率的多語言文本分類效果。
命名實體識別
識別文本中的命名實體,如人名、地名、組織名等。
在多語言環境下表現優異。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase