🚀 bert-43-multilabel-emotion-detection
このモデルは、英文の文章を感情内容に基づいて43のカテゴリに分類するために訓練された、"bert-base-uncased"のファインチューニング版です。
🚀 クイックスタート
このモデルは、英文テキストの感情内容を理解または分類する必要があるアプリケーションに使用できます。具体的には、センチメント分析、ソーシャルメディアモニタリング、顧客フィードバック分析などが挙げられます。
✨ 主な機能
- 英文の文章を感情内容に基づいて43のカテゴリに分類する。
- センチメント分析、ソーシャルメディアモニタリング、顧客フィードバック分析などのアプリケーションに使用できる。
📦 インストール
このモデルを使用するには、transformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import pipeline
model = 'borisn70/bert-43-multilabel-emotion-detection'
tokenizer = 'borisn70/bert-43-multilabel-emotion-detection'
nlp = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
result = nlp("I feel great about this!")
print(result)
📚 ドキュメント
モデルの説明
このモデル "bert-43-multilabel-emotion-detection" は、"bert-base-uncased" のファインチューニング版で、英文の文章を感情内容に基づいて43のカテゴリに分類するように訓練されています。モデルは、tweet_emotions、GoEmotions、および合成データを含むデータセットの組み合わせで訓練され、ラベルごとに約6,306件のレコードを含む約271,000件のレコードが使用されました。
訓練データ
訓練データは以下のデータセットで構成されています。
- Tweet Emotions
- GoEmotions
- 合成データ
訓練手順
モデルは20エポックにわたって訓練され、16GBのRAMを備えたGoogle Colab V100 GPUで約6時間かかりました。
以下の設定が使用されました。
from transformers import TrainingArguments
training_args = TrainingArguments(
output_dir='results',
optim="adamw_torch",
learning_rate=2e-5,
num_train_epochs=20,
per_device_train_batch_size=128,
per_device_eval_batch_size=128,
warmup_steps=500,
weight_decay=0.01,
logging_dir='./logs',
logging_steps=100,
)
性能
モデルは、検証セットで以下の性能指標を達成しました。
- 正解率: 92.02%
- 重み付きF1スコア: 91.93%
- 重み付き精度: 91.88%
- 重み付き再現率: 92.02%
43のラベルそれぞれの性能詳細もあります。
ラベルマッピング
ラベルID |
感情 |
0 |
admiration |
1 |
amusement |
2 |
anger |
3 |
annoyance |
4 |
approval |
5 |
caring |
6 |
confusion |
7 |
curiosity |
8 |
desire |
9 |
disappointment |
10 |
disapproval |
11 |
disgust |
12 |
embarrassment |
13 |
excitement |
14 |
fear |
15 |
gratitude |
16 |
grief |
17 |
joy |
18 |
love |
19 |
nervousness |
20 |
optimism |
21 |
pride |
22 |
realization |
23 |
relief |
24 |
remorse |
25 |
sadness |
26 |
surprise |
27 |
neutral |
28 |
worry |
29 |
happiness |
30 |
fun |
31 |
hate |
32 |
autonomy |
33 |
safety |
34 |
understanding |
35 |
empty |
36 |
enthusiasm |
37 |
recreation |
38 |
sense of belonging |
39 |
meaning |
40 |
sustenance |
41 |
creativity |
42 |
boredom |
正解率レポート
ラベル |
精度 |
再現率 |
F1スコア |
0 |
0.8625 |
0.7969 |
0.8284 |
1 |
0.9128 |
0.9558 |
0.9338 |
2 |
0.9028 |
0.8749 |
0.8886 |
3 |
0.8570 |
0.8639 |
0.8605 |
4 |
0.8584 |
0.8449 |
0.8516 |
5 |
0.9343 |
0.9667 |
0.9502 |
6 |
0.9492 |
0.9696 |
0.9593 |
7 |
0.9234 |
0.9462 |
0.9347 |
8 |
0.9644 |
0.9924 |
0.9782 |
9 |
0.9481 |
0.9377 |
0.9428 |
10 |
0.9250 |
0.9267 |
0.9259 |
11 |
0.9653 |
0.9914 |
0.9782 |
12 |
0.9948 |
0.9976 |
0.9962 |
13 |
0.9474 |
0.9676 |
0.9574 |
14 |
0.8926 |
0.8853 |
0.8889 |
15 |
0.9501 |
0.9515 |
0.9508 |
16 |
0.9976 |
0.9990 |
0.9983 |
17 |
0.9114 |
0.8716 |
0.8911 |
18 |
0.7825 |
0.7821 |
0.7823 |
19 |
0.9962 |
0.9990 |
0.9976 |
20 |
0.9516 |
0.9638 |
0.9577 |
21 |
0.9953 |
0.9995 |
0.9974 |
22 |
0.9630 |
0.9791 |
0.9710 |
23 |
0.9134 |
0.9134 |
0.9134 |
24 |
0.9753 |
0.9948 |
0.9849 |
25 |
0.7374 |
0.7469 |
0.7421 |
26 |
0.7864 |
0.7583 |
0.7721 |
27 |
0.6000 |
0.5666 |
0.5828 |
28 |
0.7369 |
0.6836 |
0.7093 |
29 |
0.8066 |
0.7222 |
0.7620 |
30 |
0.9116 |
0.9225 |
0.9170 |
31 |
0.9108 |
0.9524 |
0.9312 |
32 |
0.9611 |
0.9634 |
0.9622 |
33 |
0.9592 |
0.9724 |
0.9657 |
34 |
0.9700 |
0.9686 |
0.9693 |
35 |
0.9459 |
0.9734 |
0.9594 |
36 |
0.9359 |
0.9857 |
0.9601 |
37 |
0.9986 |
0.9986 |
0.9986 |
38 |
0.9943 |
0.9990 |
0.9967 |
39 |
0.9990 |
1.0000 |
0.9995 |
40 |
0.9905 |
0.9914 |
0.9910 |
41 |
0.9981 |
0.9948 |
0.9964 |
42 |
0.9929 |
0.9986 |
0.9957 |
重み付き平均 |
0.9188 |
0.9202 |
0.9193 |
🔧 技術詳細
- モデルの性能は、訓練データでの表現が少ない感情カテゴリを含む、異なる感情カテゴリ間で大きく異なる可能性があります。
- ユーザーは、訓練データに潜在的なバイアスがある可能性に注意する必要があり、これがモデルの予測に反映される可能性があります。
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
連絡先
モデルに関する質問、フィードバック、または問題を報告したい場合は、お気軽にご連絡ください。