Mdeberta V3 Base Sentiment
基於mDeBERTa-v3-base微調的多語言文本情感分類模型,支持跨語言情感分析
下載量 101
發布時間 : 10/12/2024
模型概述
該模型針對跨語言文本情感評估任務進行微調,可預測文本的積極/中性/消極情感傾向
模型特點
跨語言情感分析
支持多種語言文本的情感評估,對翻譯文本保持預測一致性
三向情感分類
輸出連續情感評分(正值=積極/零值=中性/負值=消極)
高效微調架構
基於mDeBERTa-v3-base的強大多語言理解能力進行優化
模型能力
多語言文本情感分類
跨語言情感一致性評估
連續情感評分預測
使用案例
社交媒體分析
多語言評論情感監測
分析不同語言用戶評論的情感傾向
在驗證集上達到0.4177 RMSE準確率
市場調研
全球化品牌情感追蹤
比較產品在不同語言市場的用戶情感反饋
實驗顯示對翻譯文本預測一致性高
🚀 多語言DeBERTa V3基礎情感評估模型
本項目是多語言DeBERTa模型(mdeberta)的微調版本,用於跨語言評估文本情感。
🚀 快速開始
安裝依賴
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
加載模型
model_name="agentlans/mdeberta-v3-base-sentiment"
# 將模型置於GPU或CPU
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
進行情感分析
def sentiment(text):
"""使用模型處理文本並返回其對數幾率。
在這種情況下,它被解釋為該文本的情感分數。"""
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device)
with torch.no_grad():
logits = model(**inputs).logits.squeeze().cpu()
return logits.tolist()
# 注意:建議對文本進行預處理,以去除特殊字符、電子郵件和哈希標籤
sentiment("Your text here.")
✨ 主要特性
- 基於多語言DeBERTa模型微調,可跨語言評估文本情感。
- 支持多種語言輸入,輸出文本的情感分數(積極、消極、中性)。
📦 安裝指南
使用transformers
庫加載模型,代碼如下:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name="agentlans/mdeberta-v3-base-sentiment"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
💻 使用示例
基礎用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name="agentlans/mdeberta-v3-base-sentiment"
# Put model on GPU or else CPU
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
def sentiment(text):
"""Processes the text using the model and returns its logits.
In this case, it's interpreted as the sentiment score for that text."""
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device)
with torch.no_grad():
logits = model(**inputs).logits.squeeze().cpu()
return logits.tolist()
# Note: Recommend to preprocess text to remove special characters, e-mails, and hash tags
sentiment("Your text here.")
📚 詳細文檔
模型詳情
屬性 | 詳情 |
---|---|
模型類型 | mdeberta-v3-base-sentiment |
任務 | 分類(情感分析) |
訓練數據 | agentlans/tatoeba-english-translations,包含48900個帶標籤的英文翻譯 |
輸入 | DeBERTa支持的任何語言的文本 |
輸出 | 文本的情感分數(積極、消極、中性) - 正分數表示積極情感 - 零分表示中性情感 - 負分數表示消極情感 |
性能
在20%的保留驗證集上,均方根誤差(RMSE)準確率為0.4177。
訓練數據
模型在 agentlans/tatoeba-english-translations 數據集上進行訓練。
結果
在本研究中,生成了10個不同情感的英文文本樣本,並使用谷歌翻譯將其翻譯成阿拉伯語、中文、法語、俄語和西班牙語。這產生了總共50個翻譯樣本,隨後由訓練好的分類器對其進行分析,以預測它們的情感分數。
下表展示了10個原始文本及其翻譯:
# | 英文 | 法語 | 西班牙語 | 俄語 | 中文 | 阿拉伯語 |
---|---|---|---|---|---|---|
1 | Everything feels hopeless; I can’t see a way out of this darkness. | Tout me semble désespéré, je ne vois pas comment sortir de cette obscurité. | Todo parece desesperanzado; no veo una salida a esta oscuridad. | Все кажется безнадежным; я не вижу выхода из этой тьмы. | 一切都感覺無望;我看不到走出黑暗的出路。 | أشعر بأن كل شيء يائس؛ لا أستطيع أن أرى مخرجًا من هذا الظلام. |
2 | I’m constantly overwhelmed by the weight of my problems; it’s exhausting. | Je suis constamment accablée par le poids de mes problèmes, c’est épuisant. | El peso de mis problemas me abruma constantemente; es agotador. | Я постоянно подавлен грузом своих проблем; это изматывает. | 我經常被問題的重壓壓垮;這讓人筋疲力盡。 | أشعر باستمرار بثقل مشاكلي؛ إنه أمر مرهق. |
3 | Nothing seems to go right for me; I’m always stuck in a rut. | Rien ne semble aller bien pour moi, je suis toujours coincée dans une ornière. | Nada parece salir bien para mí; siempre estoy estancado en una rutina. | Кажется, у меня ничего не получается; я всегда застрял в колее. | 似乎沒有什麼事情對我有利;我總是陷入困境。 | لا يبدو أن أي شيء يسير على ما يرام بالنسبة لي؛ فأنا عالق دائمًا في روتين. |
4 | I feel like I’m making no progress; every step forward is met with two steps back. | J’ai l’impression de ne pas progresser, chaque pas en avant est suivi de deux pas en arrière. | Siento que no estoy avanzando; cada paso hacia adelante se corresponde con dos pasos hacia atrás. | Я чувствую, что не продвигаюсь; каждый шаг вперед сопровождается двумя шагами назад. | 我覺得自己沒有取得任何進步;每前進一步就會後退兩步。 | أشعر وكأنني لا أحرز أي تقدم؛ فكل خطوة للأمام تقابلها خطوتان للوراء. |
5 | There are some moments of joy, but they are fleeting and overshadowed by my worries. | Il y a des moments de joie, mais ils sont éphémères et éclipsés par mes inquiétudes. | Hay algunos momentos de alegría, pero son fugaces y eclipsados por mis preocupaciones. | Бывают моменты радости, но они мимолетны и затмеваются моими переживаниями. | 有一些快樂的時刻,但它們轉瞬即逝,被我的擔憂所掩蓋。 | هناك بعض لحظات الفرح، لكنها عابرة وتطغى عليها همومي. |
6 | I’m starting to see some light at the end of the tunnel; things might improve soon. | Je commence à voir la lumière au bout du tunnel, les choses pourraient bientôt s’améliorer. | Estoy empezando a ver algo de luz al final del túnel; las cosas podrían mejorar pronto. | Я начинаю видеть свет в конце туннеля; скоро все может улучшиться. | 我開始看到隧道盡頭的一些光亮;事情可能很快就會好轉。 | بدأت أرى بعض الضوء في نهاية النفق؛ قد تتحسن الأمور قريبًا. |
7 | I’ve learned to appreciate the small victories in my life, even if they’re rare. | J’ai appris à apprécier les petites victoires de ma vie, même si elles sont rares. | He aprendido a apreciar las pequeñas victorias en mi vida, incluso si son raras. | Я научился ценить маленькие победы в своей жизни, даже если они редки. | 我學會了欣賞生活中的小勝利,即使它們很少見。 | لقد تعلمت تقدير الانتصارات الصغيرة في حياتي، حتى لو كانت نادرة. |
8 | Every day brings new challenges, but I’m beginning to face them with resilience. | Chaque jour apporte de nouveaux défis, mais je commence à les affronter avec résilience. | Cada día trae nuevos desafíos, pero estoy empezando a enfrentarlos con resiliencia. | Каждый день приносит новые испытания, но я начинаю встречать их со стойкостью. | 每天都有新的挑戰,但我開始以堅韌的態度面對它們。 | كل يوم يجلب تحديات جديدة، لكنني بدأت في مواجهتها بمرونة. |
9 | I’m surrounded by supportive friends who lift me up when I need it most. | Je suis entourée d’amis qui me soutiennent et me soutiennent quand j’en ai le plus besoin. | Estoy rodeado de amigos que me apoyan y me animan cuando más lo necesito. | Меня окружают поддерживающие друзья, которые поддерживают меня, когда мне это больше всего нужно. | 我身邊都是支持我的朋友,他們在我最需要的時候鼓勵我。 | أنا محاط بأصدقاء داعمين يرفعونني عندما أكون في أمس الحاجة إليهم. |
10 | Life is full of beautiful moments, and I’m excited about what tomorrow will bring! | La vie est pleine de beaux moments, et j’ai hâte de voir ce que demain me réserve ! | ¡La vida está llena de momentos hermosos y estoy emocionado por lo que traerá el mañana! | Жизнь полна прекрасных моментов, и я с нетерпением жду того, что принесет завтрашний день! | 生活充滿了美好的時刻,我對明天會發生什麼感到興奮! | الحياة مليئة باللحظات الجميلة، وأنا متحمس لما سيجلبه الغد! |
下圖展示了按每個文本樣本分組的預測情感分數。值得注意的是,對於相同的文本,不同語言的預測分數變異性較低,這表明無論目標語言如何,對翻譯情感的評估是一致的。

該分析凸顯了使用機器學習分類器評估多語言文本情感的有效性。
侷限性
- 對於與訓練數據顯著不同的文本,性能可能會有所差異。
- 輸出基於統計模式,可能並不總是與人類判斷一致。
- 情感評估僅基於文本特徵,不考慮主題熟悉度或文化背景等因素。
倫理考慮
- 不應將其作為特定受眾文本適用性的唯一決定因素。
- 結果可能反映訓練數據源中存在的偏差。
- 在教育或出版環境中使用這些模型時應謹慎。
📄 許可證
本項目採用MIT許可證。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
基於XLM-RoBERTa的多語言檢測模型,支持20種語言的文本分類
文本分類
Transformers 支持多種語言

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
該模型通過動態生成數據集來改進在線仇恨檢測,專注於從最差案例中學習以提高檢測效果。
文本分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
基於bert-base-multilingual-uncased微調的多語言情感分析模型,支持6種語言的商品評論情感分析
文本分類 支持多種語言
B
nlptown
1.8M
371
Emotion English Distilroberta Base
基於DistilRoBERTa-base微調的英文文本情感分類模型,可預測埃克曼六種基本情緒及中性類別。
文本分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
基於RoBERTuito的西班牙語推文情感分析模型,支持POS(積極)/NEG(消極)/NEU(中性)三類情感分類
文本分類 西班牙語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERT是一款基於金融通訊文本預訓練的BERT模型,專注於金融自然語言處理領域。finbert-tone是其微調版本,用於金融情感分析任務。
文本分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
基於RoBERTa-base的多標籤情感分類模型,在go_emotions數據集上訓練,支持28種情感標籤識別。
文本分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMO是一個基於XLM-T模型微調的多語言情感分析模型,支持19種語言,專門針對社交媒體文本的情感預測。
文本分類
Transformers 其他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
基於MultiNLI、Fever-NLI和ANLI數據集訓練的DeBERTa-v3模型,擅長零樣本分類和自然語言推理任務
文本分類
Transformers 英語

D
MoritzLaurer
613.93k
204
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98