Multilingual E5 Small Aligned Sentiment
E5小型モデルアーキテクチャに基づく多言語テキスト感情評価モデル
ダウンロード数 548
リリース時間 : 12/11/2024
モデル概要
このモデルはagentlans/multilingual-e5-small-alignedをファインチューニングしたバージョンで、複数言語にわたるテキスト感情評価のために設計されています。
モデル特徴
多言語サポート
80以上の言語の感情評価をサポート
感情評価
テキストの感情傾向を正確に評価可能
E5小型モデルアーキテクチャに基づく
効率的なE5小型モデルアーキテクチャを採用し、性能と計算リソースのバランスを実現
モデル能力
多言語テキスト感情分析
クロスランゲージ感情比較
テキスト感情傾向スコアリング
使用事例
コンテンツ分析
ソーシャルメディア感情モニタリング
多言語ソーシャルメディアコンテンツの感情傾向を分析
異なる言語ユーザーの感情状態を識別可能
多言語コンテンツフィルタリング
感情傾向に基づいて不適切なコンテンツをフィルタリング
コンテンツ審査効率の向上
市場調査
クロスランゲージ製品レビュー分析
異なる言語市場における製品評価を分析
グローバル市場の感情トレンド洞察を提供
🚀 マルチリンガルE5小規模アラインドセンチメント
このモデルは、複数言語にわたるテキストの感情分析を行うために設計された、agentlans/multilingual - e5 - small - aligned の微調整バージョンです。
✨ 主な機能
- マルチリンガル対応
- テキストの感情分析
- E5小規模モデルアーキテクチャに基づく
📚 詳細ドキュメント
想定される用途と制限
このモデルは以下の用途を想定しています:
- マルチリンガルテキストの感情分析
- マルチリンガルコンテンツのフィルタリング
- 異なる言語間でのコーパステキストの感情の比較分析
制限事項:
- 訓練データに十分に表現されていない言語では、性能が異なる場合があります。
- 感情分析の唯一の基準として使用すべきではありません。
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name = "agentlans/multilingual-e5-small-aligned-sentiment"
# Initialize tokenizer and model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
def sentiment(text):
"""Assess the sentiment of the input text."""
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device)
with torch.no_grad():
logits = model(**inputs).logits.squeeze().cpu()
return logits.tolist()
# Example usage
score = sentiment("Your text here.")
print(f"Sentiment score: {score}")
📊 性能結果
このモデルは、多様なマルチリンガルテキストサンプルで評価されました:
- 感情の異なる10個の英語のテキストサンプルが、アラビア語、中国語、フランス語、ロシア語、スペイン語に翻訳されました。
- 同じテキストに対して、異なる言語間で一貫した感情分析が行われました。
10個の元のテキストとその翻訳を表示するにはここをクリックしてください。
Text | 英語 | フランス語 | スペイン語 | 中国語 | ロシア語 | アラビア語 |
---|---|---|---|---|---|---|
A | Nothing seems to go right, and I'm constantly frustrated. | Rien ne semble aller bien et je suis constamment frustré. | Nada parece ir bien y me siento constantemente frustrado. | 一切似乎都不顺利,我总是感到很沮丧。 | Кажется, все идет не так, как надо, и я постоянно расстроен. | يبدو أن لا شيء يسير على ما يرام، وأنا أشعر بالإحباط باستمرار. |
B | Everything is falling apart, and I can't see any way out. | Tout s’effondre et je ne vois aucune issue. | Todo se está desmoronando y no veo ninguna salida. | 一切都崩溃了,我看不到任何出路。 | Все рушится, и я не вижу выхода. | كل شيء ينهار، ولا أستطيع أن أرى أي مخرج. |
C | I feel completely overwhelmed by the challenges I face. | Je me sens complètement dépassé par les défis auxquels je suis confronté. | Me siento completamente abrumado por los desafíos que enfrento. | 我感觉自己完全被所面临的挑战压垮了。 | Я чувствую себя совершенно подавленным из-за проблем, с которыми мне приходится сталкиваться. | أشعر بأنني غارق تمامًا في التحديات التي أواجهها. |
D | There are some minor improvements, but overall, things are still tough. | Il y a quelques améliorations mineures, mais dans l’ensemble, les choses restent difficiles. | Hay algunas mejoras menores, pero en general las cosas siguen siendo difíciles. | 虽然有一些小的改进,但是总的来说,事情仍然很艰难。 | Есть некоторые незначительные улучшения, но в целом ситуация по-прежнему сложная. | هناك بعض التحسينات الطفيفة، ولكن بشكل عام، لا تزال الأمور صعبة. |
E | I can see a glimmer of hope amidst the difficulties I encounter. | Je vois une lueur d’espoir au milieu des difficultés que je rencontre. | Puedo ver un rayo de esperanza en medio de las dificultades que encuentro. | 我在遇到的困难中看到了一线希望。 | Среди трудностей, с которыми я сталкиваюсь, я вижу проблеск надежды. | أستطيع أن أرى بصيص أمل وسط الصعوبات التي أواجهها. |
F | Things are starting to look up, and I'm cautiously optimistic. | Les choses commencent à s’améliorer et je suis prudemment optimiste. | Las cosas están empezando a mejorar y me siento cautelosamente optimista. | 事情开始好转,我持谨慎乐观的态度。 | Ситуация начинает улучшаться, и я настроен осторожно и оптимистично. | بدأت الأمور تتجه نحو التحسن، وأنا متفائل بحذر. |
G | I'm feeling more positive about my situation than I have in a while. | Je me sens plus positif à propos de ma situation que je ne l’ai été depuis un certain temps. | Me siento más positivo sobre mi situación que en mucho tiempo. | 我对自己处境的感觉比以前更加乐观了。 | Я чувствую себя более позитивно относительно своей ситуации, чем когда-либо за последнее время. | أشعر بإيجابية أكبر تجاه وضعي مقارنة بأي وقت مضى. |
H | There are many good things happening, and I appreciate them. | Il se passe beaucoup de bonnes choses et je les apprécie. | Están sucediendo muchas cosas buenas y las aprecio. | 有很多好事发生,我对此表示感谢。 | Происходит много хорошего, и я это ценю. | هناك الكثير من الأشياء الجيدة التي تحدث، وأنا أقدرها. |
I | Every day brings new joy and possibilities; I feel truly blessed. | Chaque jour apporte de nouvelles joies et possibilités ; je me sens vraiment béni. | Cada día trae nueva alegría y posibilidades; me siento verdaderamente bendecida. | 每天都有新的快乐和可能性;我感到非常幸福。 | Каждый день приносит новую радость и возможности; я чувствую себя по-настоящему благословенной. | كل يوم يجلب فرحة وإمكانيات جديدة؛ أشعر بأنني محظوظة حقًا. |
J | Life is full of opportunities, and I'm excited about the future. | La vie est pleine d’opportunités et je suis enthousiaste quant à l’avenir. | La vida está llena de oportunidades y estoy entusiasmado por el futuro. | 生活充满机遇,我对未来充满兴奋。 | Жизнь полна возможностей, и я с нетерпением жду будущего. | الحياة مليئة بالفرص، وأنا متحمس للمستقبل. |
📦 訓練データ
このモデルは、Multilingual Parallel Sentences dataset で訓練されました。このデータセットには以下が含まれています:
- 英語と他の様々な言語の並列文
- LaBSEを使用して計算された意味的類似度スコア
- 追加の感情指標
- データソース: JW300、Europarl、TED Talks、OPUS - 100、Tatoeba、Global Voices、News Commentary
🔧 訓練手順
訓練ハイパーパラメータ
訓練中に以下のハイパーパラメータが使用されました:
- learning_rate: 5e - 05
- train_batch_size: 128
- eval_batch_size: 8
- seed: 42
- optimizer: betas=(0.9,0.999) および epsilon = 1e - 08 の adamw_torch を使用。optimizer_args = 追加のオプティマイザ引数なし
- lr_scheduler_type: linear
- num_epochs: 3.0
訓練結果
訓練損失 | エポック | ステップ | 検証損失 | 平均二乗誤差 |
---|---|---|---|---|
0.1946 | 1.0 | 7813 | 0.1647 | 0.1647 |
0.1385 | 2.0 | 15626 | 0.1528 | 0.1528 |
0.1121 | 3.0 | 23439 | 0.1455 | 0.1455 |
フレームワークバージョン
- Transformers 4.46.3
- Pytorch 2.5.1+cu124
- Datasets 3.1.0
- Tokenizers 0.20.3
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
DistilBERT - base - uncasedをベースに、SST - 2感情分析データセットで微調整されたテキスト分類モデル。正解率91.3%
テキスト分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
XLM-RoBERTaベースの多言語検出モデル、20言語のテキスト分類をサポート
テキスト分類
Transformers 複数言語対応

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
このモデルは動的データセット生成を通じてオンライン憎悪検出を改善し、検出効果を高めるために最悪ケースから学習することに焦点を当てています。
テキスト分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
bert-base-multilingual-uncasedを微調整した多言語感情分析モデルで、6言語の商品レビューの感情分析に対応しています。
テキスト分類 複数言語対応
B
nlptown
1.8M
371
Emotion English Distilroberta Base
DistilRoBERTa-baseをファインチューニングした英語テキストの感情分類モデルで、エクマンの6基本感情と中立カテゴリを予測可能。
テキスト分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
RoBERTuitoベースのスペイン語ツイート感情分析モデル、POS(ポジティブ)/NEG(ネガティブ)/NEU(ニュートラル)の3分類に対応
テキスト分類 スペイン語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERTは金融通信テキストを元に事前学習されたBERTモデルで、金融自然言語処理分野に特化しています。finbert-toneはその微調整バージョンで、金融感情分析タスクに使用されます。
テキスト分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
RoBERTa-baseに基づく多ラベル感情分類モデルで、go_emotionsデータセットで訓練され、28種類の感情ラベル識別をサポートします。
テキスト分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMOはXLM-Tモデルをファインチューニングした多言語感情分析モデルで、19言語をサポートし、特にソーシャルメディアテキストの感情予測に特化しています。
テキスト分類
Transformers その他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
MultiNLI、Fever-NLI、ANLIのデータセットを用いて訓練されたDeBERTa-v3モデルで、ゼロショット分類と自然言語推論タスクに優れています。
テキスト分類
Transformers 英語

D
MoritzLaurer
613.93k
204
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98