T

Tf Xlm Roberta Large

由jplu開發
XLM-RoBERTa是一個大規模跨語言句子編碼器,基於100種語言的2.5TB數據訓練,在多項跨語言基準測試中表現優異。
下載量 236
發布時間 : 3/2/2022

模型概述

TensorFlow實現的XLM-RoBERTa模型,支持跨語言文本理解和處理任務。

模型特點

跨語言能力
支持100種語言的文本理解和處理
大規模預訓練
基於2.5TB的多語言數據進行訓練
TensorFlow實現
提供TensorFlow版本的模型權重

模型能力

跨語言文本理解
句子編碼
文本特徵提取

使用案例

自然語言處理
跨語言文本分類
對不同語言的文本進行分類
在多項跨語言基準測試中取得優異表現
多語言語義搜索
構建支持多語言的語義搜索引擎
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase