R

Roberta Large Mnli

由 typeform 开发
XLM-RoBERTa是基于RoBERTa架构的多语言预训练模型,支持100种语言,在跨语言理解任务中表现优异。
下载量 119
发布时间 : 3/2/2022

模型简介

XLM-RoBERTa是Facebook AI基于RoBERTa架构开发的多语言预训练模型,通过大规模多语言语料训练,支持100种语言的文本理解与生成任务。

模型特点

多语言支持
支持100种语言的文本处理,在跨语言任务中表现优异
大规模预训练
基于2.5TB的CommonCrawl数据进行预训练,覆盖多种语言
零样本学习能力
能够在未见过的语言和任务上表现良好

模型能力

文本分类
序列标注
问答系统
文本生成
跨语言理解
零样本学习

使用案例

内容审核
多语言有害内容检测
自动识别多种语言中的有害或不当内容
在多种语言上达到90%以上的准确率
客户服务
多语言客服系统
处理来自不同语言客户的查询和请求
支持100种语言的自动回复
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase