T

Tf Xlm Roberta Base

由jplu開發
XLM-RoBERTa是一種跨語言句子編碼器的擴展版本,基於100種語言的2.5T數據訓練,在多項跨語言基準測試中表現優異。
下載量 4,820
發布時間 : 3/2/2022

模型概述

適用於Tensorflow的XLM-RoBERTa模型,支持跨語言理解任務。

模型特點

跨語言能力
基於100種語言的訓練數據,具備強大的跨語言理解能力。
大規模預訓練
使用2.5T的數據進行訓練,模型具有豐富的語言知識。
Tensorflow支持
專為Tensorflow框架優化的模型版本。

模型能力

跨語言文本理解
文本編碼
多語言任務處理

使用案例

自然語言處理
跨語言文本分類
對多種語言的文本進行分類任務。
在多項跨語言基準測試中取得最先進成果
多語言問答系統
構建支持多種語言的問答系統。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase