T

Tf Xlm Roberta Base

由 jplu 开发
XLM-RoBERTa是一种跨语言句子编码器的扩展版本,基于100种语言的2.5T数据训练,在多项跨语言基准测试中表现优异。
下载量 4,820
发布时间 : 3/2/2022

模型简介

适用于Tensorflow的XLM-RoBERTa模型,支持跨语言理解任务。

模型特点

跨语言能力
基于100种语言的训练数据,具备强大的跨语言理解能力。
大规模预训练
使用2.5T的数据进行训练,模型具有丰富的语言知识。
Tensorflow支持
专为Tensorflow框架优化的模型版本。

模型能力

跨语言文本理解
文本编码
多语言任务处理

使用案例

自然语言处理
跨语言文本分类
对多种语言的文本进行分类任务。
在多项跨语言基准测试中取得最先进成果
多语言问答系统
构建支持多种语言的问答系统。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase