X

Xlm Mlm 100 1280

由FacebookAI開發
XLM模型是基於100種語言的維基百科文本訓練的跨語言語言模型,使用掩碼語言建模目標進行預訓練。
下載量 296
發布時間 : 3/2/2022

模型概述

該模型是一個基於Transformer架構的多語言語言模型,支持100種語言,主要用於跨語言理解和生成任務。

模型特點

多語言支持
支持100種語言的跨語言理解和生成任務
大規模預訓練
基於100種語言的維基百科文本進行預訓練
Transformer架構
採用16層Transformer架構,具有1280個隱藏狀態和16個注意力頭

模型能力

跨語言文本理解
掩碼語言建模
多語言文本生成

使用案例

跨語言分類
XNLI跨語言分類
在XNLI數據集上進行跨語言自然語言推理任務
英語83.7%準確率,中文71.7%準確率等
語言理解
多語言文本理解
理解100種語言的文本內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase