Mdeberta V3 Base Sentiment
基于mDeBERTa-v3-base微调的多语言文本情感分类模型,支持跨语言情感分析
下载量 101
发布时间 : 10/12/2024
模型简介
该模型针对跨语言文本情感评估任务进行微调,可预测文本的积极/中性/消极情感倾向
模型特点
跨语言情感分析
支持多种语言文本的情感评估,对翻译文本保持预测一致性
三向情感分类
输出连续情感评分(正值=积极/零值=中性/负值=消极)
高效微调架构
基于mDeBERTa-v3-base的强大多语言理解能力进行优化
模型能力
多语言文本情感分类
跨语言情感一致性评估
连续情感评分预测
使用案例
社交媒体分析
多语言评论情感监测
分析不同语言用户评论的情感倾向
在验证集上达到0.4177 RMSE准确率
市场调研
全球化品牌情感追踪
比较产品在不同语言市场的用户情感反馈
实验显示对翻译文本预测一致性高
🚀 多语言DeBERTa V3基础情感评估模型
本项目是多语言DeBERTa模型(mdeberta)的微调版本,用于跨语言评估文本情感。
🚀 快速开始
安装依赖
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
加载模型
model_name="agentlans/mdeberta-v3-base-sentiment"
# 将模型置于GPU或CPU
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
进行情感分析
def sentiment(text):
"""使用模型处理文本并返回其对数几率。
在这种情况下,它被解释为该文本的情感分数。"""
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device)
with torch.no_grad():
logits = model(**inputs).logits.squeeze().cpu()
return logits.tolist()
# 注意:建议对文本进行预处理,以去除特殊字符、电子邮件和哈希标签
sentiment("Your text here.")
✨ 主要特性
- 基于多语言DeBERTa模型微调,可跨语言评估文本情感。
- 支持多种语言输入,输出文本的情感分数(积极、消极、中性)。
📦 安装指南
使用transformers
库加载模型,代码如下:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name="agentlans/mdeberta-v3-base-sentiment"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
💻 使用示例
基础用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name="agentlans/mdeberta-v3-base-sentiment"
# Put model on GPU or else CPU
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
def sentiment(text):
"""Processes the text using the model and returns its logits.
In this case, it's interpreted as the sentiment score for that text."""
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device)
with torch.no_grad():
logits = model(**inputs).logits.squeeze().cpu()
return logits.tolist()
# Note: Recommend to preprocess text to remove special characters, e-mails, and hash tags
sentiment("Your text here.")
📚 详细文档
模型详情
属性 | 详情 |
---|---|
模型类型 | mdeberta-v3-base-sentiment |
任务 | 分类(情感分析) |
训练数据 | agentlans/tatoeba-english-translations,包含48900个带标签的英文翻译 |
输入 | DeBERTa支持的任何语言的文本 |
输出 | 文本的情感分数(积极、消极、中性) - 正分数表示积极情感 - 零分表示中性情感 - 负分数表示消极情感 |
性能
在20%的保留验证集上,均方根误差(RMSE)准确率为0.4177。
训练数据
模型在 agentlans/tatoeba-english-translations 数据集上进行训练。
结果
在本研究中,生成了10个不同情感的英文文本样本,并使用谷歌翻译将其翻译成阿拉伯语、中文、法语、俄语和西班牙语。这产生了总共50个翻译样本,随后由训练好的分类器对其进行分析,以预测它们的情感分数。
下表展示了10个原始文本及其翻译:
# | 英文 | 法语 | 西班牙语 | 俄语 | 中文 | 阿拉伯语 |
---|---|---|---|---|---|---|
1 | Everything feels hopeless; I can’t see a way out of this darkness. | Tout me semble désespéré, je ne vois pas comment sortir de cette obscurité. | Todo parece desesperanzado; no veo una salida a esta oscuridad. | Все кажется безнадежным; я не вижу выхода из этой тьмы. | 一切都感觉无望;我看不到走出黑暗的出路。 | أشعر بأن كل شيء يائس؛ لا أستطيع أن أرى مخرجًا من هذا الظلام. |
2 | I’m constantly overwhelmed by the weight of my problems; it’s exhausting. | Je suis constamment accablée par le poids de mes problèmes, c’est épuisant. | El peso de mis problemas me abruma constantemente; es agotador. | Я постоянно подавлен грузом своих проблем; это изматывает. | 我经常被问题的重压压垮;这让人筋疲力尽。 | أشعر باستمرار بثقل مشاكلي؛ إنه أمر مرهق. |
3 | Nothing seems to go right for me; I’m always stuck in a rut. | Rien ne semble aller bien pour moi, je suis toujours coincée dans une ornière. | Nada parece salir bien para mí; siempre estoy estancado en una rutina. | Кажется, у меня ничего не получается; я всегда застрял в колее. | 似乎没有什么事情对我有利;我总是陷入困境。 | لا يبدو أن أي شيء يسير على ما يرام بالنسبة لي؛ فأنا عالق دائمًا في روتين. |
4 | I feel like I’m making no progress; every step forward is met with two steps back. | J’ai l’impression de ne pas progresser, chaque pas en avant est suivi de deux pas en arrière. | Siento que no estoy avanzando; cada paso hacia adelante se corresponde con dos pasos hacia atrás. | Я чувствую, что не продвигаюсь; каждый шаг вперед сопровождается двумя шагами назад. | 我觉得自己没有取得任何进步;每前进一步就会后退两步。 | أشعر وكأنني لا أحرز أي تقدم؛ فكل خطوة للأمام تقابلها خطوتان للوراء. |
5 | There are some moments of joy, but they are fleeting and overshadowed by my worries. | Il y a des moments de joie, mais ils sont éphémères et éclipsés par mes inquiétudes. | Hay algunos momentos de alegría, pero son fugaces y eclipsados por mis preocupaciones. | Бывают моменты радости, но они мимолетны и затмеваются моими переживаниями. | 有一些快乐的时刻,但它们转瞬即逝,被我的担忧所掩盖。 | هناك بعض لحظات الفرح، لكنها عابرة وتطغى عليها همومي. |
6 | I’m starting to see some light at the end of the tunnel; things might improve soon. | Je commence à voir la lumière au bout du tunnel, les choses pourraient bientôt s’améliorer. | Estoy empezando a ver algo de luz al final del túnel; las cosas podrían mejorar pronto. | Я начинаю видеть свет в конце туннеля; скоро все может улучшиться. | 我开始看到隧道尽头的一些光亮;事情可能很快就会好转。 | بدأت أرى بعض الضوء في نهاية النفق؛ قد تتحسن الأمور قريبًا. |
7 | I’ve learned to appreciate the small victories in my life, even if they’re rare. | J’ai appris à apprécier les petites victoires de ma vie, même si elles sont rares. | He aprendido a apreciar las pequeñas victorias en mi vida, incluso si son raras. | Я научился ценить маленькие победы в своей жизни, даже если они редки. | 我学会了欣赏生活中的小胜利,即使它们很少见。 | لقد تعلمت تقدير الانتصارات الصغيرة في حياتي، حتى لو كانت نادرة. |
8 | Every day brings new challenges, but I’m beginning to face them with resilience. | Chaque jour apporte de nouveaux défis, mais je commence à les affronter avec résilience. | Cada día trae nuevos desafíos, pero estoy empezando a enfrentarlos con resiliencia. | Каждый день приносит новые испытания, но я начинаю встречать их со стойкостью. | 每天都有新的挑战,但我开始以坚韧的态度面对它们。 | كل يوم يجلب تحديات جديدة، لكنني بدأت في مواجهتها بمرونة. |
9 | I’m surrounded by supportive friends who lift me up when I need it most. | Je suis entourée d’amis qui me soutiennent et me soutiennent quand j’en ai le plus besoin. | Estoy rodeado de amigos que me apoyan y me animan cuando más lo necesito. | Меня окружают поддерживающие друзья, которые поддерживают меня, когда мне это больше всего нужно. | 我身边都是支持我的朋友,他们在我最需要的时候鼓励我。 | أنا محاط بأصدقاء داعمين يرفعونني عندما أكون في أمس الحاجة إليهم. |
10 | Life is full of beautiful moments, and I’m excited about what tomorrow will bring! | La vie est pleine de beaux moments, et j’ai hâte de voir ce que demain me réserve ! | ¡La vida está llena de momentos hermosos y estoy emocionado por lo que traerá el mañana! | Жизнь полна прекрасных моментов, и я с нетерпением жду того, что принесет завтрашний день! | 生活充满了美好的时刻,我对明天会发生什么感到兴奋! | الحياة مليئة باللحظات الجميلة، وأنا متحمس لما سيجلبه الغد! |
下图展示了按每个文本样本分组的预测情感分数。值得注意的是,对于相同的文本,不同语言的预测分数变异性较低,这表明无论目标语言如何,对翻译情感的评估是一致的。

该分析凸显了使用机器学习分类器评估多语言文本情感的有效性。
局限性
- 对于与训练数据显著不同的文本,性能可能会有所差异。
- 输出基于统计模式,可能并不总是与人类判断一致。
- 情感评估仅基于文本特征,不考虑主题熟悉度或文化背景等因素。
伦理考虑
- 不应将其作为特定受众文本适用性的唯一决定因素。
- 结果可能反映训练数据源中存在的偏差。
- 在教育或出版环境中使用这些模型时应谨慎。
📄 许可证
本项目采用MIT许可证。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基于DistilBERT-base-uncased在SST-2情感分析数据集上微调的文本分类模型,准确率91.3%
文本分类 英语
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
基于XLM-RoBERTa的多语言检测模型,支持20种语言的文本分类
文本分类
Transformers 支持多种语言

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
该模型通过动态生成数据集来改进在线仇恨检测,专注于从最差案例中学习以提高检测效果。
文本分类
Transformers 英语

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
基于bert-base-multilingual-uncased微调的多语言情感分析模型,支持6种语言的商品评论情感分析
文本分类 支持多种语言
B
nlptown
1.8M
371
Emotion English Distilroberta Base
基于DistilRoBERTa-base微调的英文文本情感分类模型,可预测埃克曼六种基本情绪及中性类别。
文本分类
Transformers 英语

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
基于RoBERTuito的西班牙语推文情感分析模型,支持POS(积极)/NEG(消极)/NEU(中性)三类情感分类
文本分类 西班牙语
R
pysentimiento
1.0M
88
Finbert Tone
FinBERT是一款基于金融通讯文本预训练的BERT模型,专注于金融自然语言处理领域。finbert-tone是其微调版本,用于金融情感分析任务。
文本分类
Transformers 英语

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
基于RoBERTa-base的多标签情感分类模型,在go_emotions数据集上训练,支持28种情感标签识别。
文本分类
Transformers 英语

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMO是一个基于XLM-T模型微调的多语言情感分析模型,支持19种语言,专门针对社交媒体文本的情感预测。
文本分类
Transformers 其他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
基于MultiNLI、Fever-NLI和ANLI数据集训练的DeBERTa-v3模型,擅长零样本分类和自然语言推理任务
文本分类
Transformers 英语

D
MoritzLaurer
613.93k
204
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98