🚀 ファインチューニングされたRoBERTa感情分析モデル
このモデルは、YouTubeコメントの感情分析に特化したモデルです。カスタムデータセットでファインチューニングされ、YouTubeコメントの感情分析性能を向上させることを目的としています。
🚀 クイックスタート
このモデルは、YouTubeコメントの感情分析に使用できます。APIエンドポイントを介して使用するか、Hugging Face Transformersライブラリを使用してローカルで読み込むことができます。
✨ 主な機能
- 高精度な感情分析:YouTubeコメントに特化したファインチューニングにより、80.17%の精度を達成しました。
- 多言語対応:XLM-RoBERTaベースモデルを使用しているため、多言語のYouTubeコメントに対応しています。
- 簡単な使用方法:Pythonコードを使用して簡単にモデルを使用することができます。
📦 インストール
このモデルを使用するには、Hugging Face Transformersライブラリをインストールする必要があります。以下のコマンドでインストールできます。
pip install transformers torch
💻 使用例
基本的な使用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model_name = "AmaanP314/youtube-xlm-roberta-base-sentiment-multilingual"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
comments = [
"This video aged like honey.",
"This video aged like milk.",
"It was just okay."
]
inputs = tokenizer(comments, return_tensors="pt", padding=True, truncation=True)
with torch.no_grad():
outputs = model(**inputs)
predictions = torch.argmax(outputs.logits, dim=1)
label_mapping = {0: "Negative", 1: "Neutral", 2: "Positive"}
sentiments = [label_mapping[p.item()] for p in predictions]
print(sentiments)
📚 ドキュメント
モデル概要
このモデルは、cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingual モデルをYouTubeコメントのカスタムデータセットでファインチューニングしたバージョンです。ファインチューニングプロセスは、他のソーシャルメディアプラットフォームとはトーン、スラング、構造が異なることが多いYouTubeコメントの感情分析性能を向上させるように設計されています。ファインチューニング後、モデルは**80.17%**の精度を達成しました。
想定用途
このモデルは、YouTubeコメントの感情分析を目的として設計されています。テキスト入力(コメント)のリストを受け取り、各コメントに対して感情ラベルを返します。
このモデルは、ビデオ推薦システム、コンテンツ分析ダッシュボード、および視聴者の感情を理解することが重要な他のデータ分析タスクなどのアプリケーションで使用できます。
学習方法
評価
このモデルは、YouTubeコメントのホールドアウトテストセットで評価されました。Twitterデータでファインチューニングした場合のベースライン精度約69.3%から、このデータセットでは**80.17%**に向上しました。この改善は、ドメイン固有のファインチューニングの利点を示しています。
🔧 技術詳細
このモデルは、XLM-RoBERTaベースモデルを使用しています。XLM-RoBERTaは、多言語のテキスト理解に特化したモデルで、大規模な多言語コーパスで事前学習されています。このモデルは、YouTubeコメントの感情分析に特化したファインチューニングを行っています。
📄 ライセンス
このモデルは、CC BY 4.0ライセンスの下で公開されています。
引用
このモデルを研究で使用する場合は、元のベースモデルとこのプロジェクトを引用してください。
@misc{cardiffnlp,
title={Twitter-XLM-RoBERTa-Base-Sentiment-Multilingual},
author={Cardiff NLP},
year={2020},
publisher={Hugging Face},
howpublished={\url{https://huggingface.co/cardiffnlp/twitter-xlm-roberta-base-sentiment-multilingual}}
}
@misc{AmaanP314,
title={Youtube-XLM-RoBERTa-Base-Sentiment-Multilingual},
author={Amaan Poonawala},
year={2025},
howpublished={\url{https://huggingface.co/AmaanP314/youtube-xlm-roberta-base-sentiment-multilingual}}
}
情報テーブル
属性 |
詳情 |
モデルタイプ |
ファインチューニングされたRoBERTa感情分析モデル |
訓練データ |
AmaanP314/youtube-comment-sentiment |
評価指標 |
精度 |
パイプラインタグ |
テキスト分類 |
タグ |
youtube, comments, sentiment, roberta |
ライセンス |
CC BY 4.0 |