Mdeberta V3 Base Sentiment
mDeBERTa-v3-baseをファインチューニングした多言語テキスト感情分類モデルで、言語間感情分析をサポート
ダウンロード数 101
リリース時間 : 10/12/2024
モデル概要
このモデルは言語間テキスト感情評価タスク向けにファインチューニングされ、テキストのポジティブ/ニュートラル/ネガティブな感情傾向を予測
モデル特徴
言語間感情分析
複数言語のテキスト感情評価をサポートし、翻訳テキストに対して予測一貫性を保持
三方向感情分類
連続的感情スコアを出力(正の値=ポジティブ/ゼロ値=ニュートラル/負の値=ネガティブ)
効率的なファインチューニングアーキテクチャ
mDeBERTa-v3-baseの強力な多言語理解能力を基に最適化
モデル能力
多言語テキスト感情分類
言語間感情一貫性評価
連続的感情スコア予測
使用事例
ソーシャルメディア分析
多言語コメント感情モニタリング
異なる言語のユーザーコメントの感情傾向を分析
検証セットで0.4177 RMSE精度を達成
市場調査
グローバルブランド感情トラッキング
異なる言語市場における製品のユーザー感情フィードバックを比較
実験では翻訳テキストに対する予測一貫性が高いことを示した
🚀 多言語DeBERTa V3 Baseによる感情評価
このモデルは、多言語DeBERTaモデル(mdeberta)を微調整したもので、様々な言語のテキストの感情を評価することができます。
📚 ドキュメント
モデルの詳細
- アーキテクチャ: mdeberta-v3-base-sentiment
- タスク: 分類(感情分析)
- 学習データ: agentlans/tatoeba-english-translations 。このデータセットには48,900件の英語の翻訳ラベル付きデータが含まれています。
- 入力: DeBERTaがサポートする任意の言語のテキスト
- 出力: テキストの感情スコア(肯定的、否定的、中立)
- 正のスコアは肯定的な感情を示します
- ゼロのスコアは中立的な感情を示します
- 負のスコアは否定的な感情を示します
性能
20%の検証データセットでのRMSE精度: 0.4177
学習データ
このモデルは agentlans/tatoeba-english-translations を使用して学習されました。
制限事項
- 学習データと大きく異なるテキストに対しては、性能が異なる場合があります。
- 出力は統計的パターンに基づいているため、必ずしも人間の判断と一致するとは限りません。
- 感情は純粋にテキストの特徴に基づいて評価され、主題の熟知度や文化的背景などの要素は考慮されていません。
倫理的な考慮事項
- 特定の対象者に対するテキストの適切性を判断する唯一の基準として使用してはいけません。
- 結果は学習データソースに含まれるバイアスを反映している可能性があります。
- 教育や出版の文脈でこれらのモデルを使用する際には注意が必要です。
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name="agentlans/mdeberta-v3-base-sentiment"
# Put model on GPU or else CPU
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
def sentiment(text):
"""Processes the text using the model and returns its logits.
In this case, it's interpreted as the sentiment score for that text."""
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device)
with torch.no_grad():
logits = model(**inputs).logits.squeeze().cpu()
return logits.tolist()
# Note: Recommend to preprocess text to remove special characters, e-mails, and hash tags
sentiment("Your text here.")
結果
この研究では、様々な感情を持つ10の英語のテキストサンプルを生成し、Google翻訳を使用してアラビア語、中国語、フランス語、ロシア語、スペイン語に翻訳しました。これにより、合計50の翻訳サンプルが得られ、これらを学習済みの分類器で分析して感情スコアを予測しました。
以下の表には、10の元のテキストとその翻訳が示されています:
# | 英語 | フランス語 | スペイン語 | ロシア語 | 中国語 | アラビア語 |
---|---|---|---|---|---|---|
1 | Everything feels hopeless; I can’t see a way out of this darkness. | Tout me semble désespéré, je ne vois pas comment sortir de cette obscurité. | Todo parece desesperanzado; no veo una salida a esta oscuridad. | Все кажется безнадежным; я не вижу выхода из этой тьмы. | 一切都感觉无望;我看不到走出黑暗的出路。 | أشعر بأن كل شيء يائس؛ لا أستطيع أن أرى مخرجًا من هذا الظلام. |
2 | I’m constantly overwhelmed by the weight of my problems; it’s exhausting. | Je suis constamment accablée par le poids de mes problèmes, c’est épuisant. | El peso de mis problemas me abruma constantemente; es agotador. | Я постоянно подавлен грузом своих проблем; это изматывает. | 我经常被问题的重压压垮;这让人筋疲力尽。 | أشعر باستمرار بثقل مشاكلي؛ إنه أمر مرهق. |
3 | Nothing seems to go right for me; I’m always stuck in a rut. | Rien ne semble aller bien pour moi, je suis toujours coincée dans une ornière. | Nada parece salir bien para mí; siempre estoy estancado en una rutina. | Кажется, у меня ничего не получается; я всегда застрял в колее. | 似乎没有什么事情对我有利;我总是陷入困境。 | لا يبدو أن أي شيء يسير على ما يرام بالنسبة لي؛ فأنا عالق دائمًا في روتين. |
4 | I feel like I’m making no progress; every step forward is met with two steps back. | J’ai l’impression de ne pas progresser, chaque pas en avant est suivi de deux pas en arrière. | Siento que no estoy avanzando; cada paso hacia adelante se corresponde con dos pasos hacia atrás. | Я чувствую, что не продвигаюсь; каждый шаг вперед сопровождается двумя шагами назад. | 我觉得自己没有取得任何进步;每前进一步就会后退两步。 | أشعر وكأنني لا أحرز أي تقدم؛ فكل خطوة للأمام تقابلها خطوتان للوراء. |
5 | There are some moments of joy, but they are fleeting and overshadowed by my worries. | Il y a des moments de joie, mais ils sont éphémères et éclipsés par mes inquiétudes. | Hay algunos momentos de alegría, pero son fugaces y eclipsados por mis preocupaciones. | Бывают моменты радости, но они мимолетны и затмеваются моими переживаниями. | 有一些快乐的时刻,但它们转瞬即逝,被我的担忧所掩盖。 | هناك بعض لحظات الفرح، لكنها عابرة وتطغى عليها همومي. |
6 | I’m starting to see some light at the end of the tunnel; things might improve soon. | Je commence à voir la lumière au bout du tunnel, les choses pourraient bientôt s’améliorer. | Estoy empezando a ver algo de luz al final del túnel; las cosas podrían mejorar pronto. | Я начинаю видеть свет в конце туннеля; скоро все может улучшиться. | 我开始看到隧道尽头的一些光亮;事情可能很快就会好转。 | بدأت أرى بعض الضوء في نهاية النفق؛ قد تتحسن الأمور قريبًا. |
7 | I’ve learned to appreciate the small victories in my life, even if they’re rare. | J’ai appris à apprécier les petites victoires de ma vie, même si elles sont rares. | He aprendido a apreciar las pequeñas victorias en mi vida, incluso si son raras. | Я научился ценить маленькие победы в своей жизни, даже если они редки. | 我学会了欣赏生活中的小胜利,即使它们很少见。 | لقد تعلمت تقدير الانتصارات الصغيرة في حياتي، حتى لو كانت نادرة. |
8 | Every day brings new challenges, but I’m beginning to face them with resilience. | Chaque jour apporte de nouveaux défis, mais je commence à les affronter avec résilience. | Cada día trae nuevos desafíos, pero estoy empezando a enfrentarlos con resiliencia. | Каждый день приносит новые испытания, но я начинаю встречать их со стойкостью. | 每天都有新的挑战,但我开始以坚韧的态度面对它们。 | كل يوم يجلب تحديات جديدة، لكنني بدأت في مواجهتها بمرونة. |
9 | I’m surrounded by supportive friends who lift me up when I need it most. | Je suis entourée d’amis qui me soutiennent et me soutiennent quand j’en ai le plus besoin. | Estoy rodeado de amigos que me apoyan y me animan cuando más lo necesito. | Меня окружают поддерживающие друзья, которые поддерживают меня, когда мне это больше всего нужно. | 我身边都是支持我的朋友,他们在我最需要的时候鼓励我。 | أنا محاط بأصدقاء داعمين يرفعونني عندما أكون في أمس الحاجة إليهم. |
10 | Life is full of beautiful moments, and I’m excited about what tomorrow will bring! | La vie est pleine de beaux moments, et j’ai hâte de voir ce que demain me réserve ! | ¡La vida está llena de momentos hermosos y estoy emocionado por lo que traerá el mañana! | Жизнь полна прекрасных моментов, и я с нетерпением жду того, что принесет завтрашний день! | 生活充满了美好的时刻,我对明天会发生什么感到兴奋! | الحياة مليئة باللحظات الجميلة، وأنا متحمس لما سيجلبه الغد! |
以下の散布図は、各テキストサンプルごとにグループ化された予測感情スコアを示しています。注目すべきは、同じテキストに対する予測スコアが異なる言語間で低い変動性を示しており、ターゲット言語に関係なく翻訳の感情評価が一貫していることを示しています。

この分析は、機械学習分類器を使用して複数の言語にわたるテキストの感情を評価する有効性を強調しています。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
DistilBERT - base - uncasedをベースに、SST - 2感情分析データセットで微調整されたテキスト分類モデル。正解率91.3%
テキスト分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
XLM-RoBERTaベースの多言語検出モデル、20言語のテキスト分類をサポート
テキスト分類
Transformers 複数言語対応

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
このモデルは動的データセット生成を通じてオンライン憎悪検出を改善し、検出効果を高めるために最悪ケースから学習することに焦点を当てています。
テキスト分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
bert-base-multilingual-uncasedを微調整した多言語感情分析モデルで、6言語の商品レビューの感情分析に対応しています。
テキスト分類 複数言語対応
B
nlptown
1.8M
371
Emotion English Distilroberta Base
DistilRoBERTa-baseをファインチューニングした英語テキストの感情分類モデルで、エクマンの6基本感情と中立カテゴリを予測可能。
テキスト分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
RoBERTuitoベースのスペイン語ツイート感情分析モデル、POS(ポジティブ)/NEG(ネガティブ)/NEU(ニュートラル)の3分類に対応
テキスト分類 スペイン語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERTは金融通信テキストを元に事前学習されたBERTモデルで、金融自然言語処理分野に特化しています。finbert-toneはその微調整バージョンで、金融感情分析タスクに使用されます。
テキスト分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
RoBERTa-baseに基づく多ラベル感情分類モデルで、go_emotionsデータセットで訓練され、28種類の感情ラベル識別をサポートします。
テキスト分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMOはXLM-Tモデルをファインチューニングした多言語感情分析モデルで、19言語をサポートし、特にソーシャルメディアテキストの感情予測に特化しています。
テキスト分類
Transformers その他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
MultiNLI、Fever-NLI、ANLIのデータセットを用いて訓練されたDeBERTa-v3モデルで、ゼロショット分類と自然言語推論タスクに優れています。
テキスト分類
Transformers 英語

D
MoritzLaurer
613.93k
204
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98