Xlm Roberta Base Finetuned Marc En
基于XLM-RoBERTa-base模型在amazon_reviews_multi数据集上微调的多语言文本分类模型
Downloads 29
Release Time : 3/2/2022
Model Overview
该模型是针对亚马逊多语言评论数据进行情感分析或评分预测的微调模型,适用于多语言文本分类任务
Model Features
多语言支持
基于XLM-RoBERTa架构,具备处理多语言文本的能力
电商评论分析
专门针对亚马逊商品评论数据进行优化,适合电商场景的情感分析
高效微调
在基础模型上进行两轮微调即达到较好性能
Model Capabilities
文本分类
情感分析
评分预测
多语言文本处理
Use Cases
电商分析
商品评论情感分析
分析亚马逊商品评论中的用户情感倾向
MAE 0.4756的预测准确度
产品评分预测
根据评论内容预测用户可能给出的评分
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98