🚀 SiEBERT - 英文情感分類模型
本模型(“SiEBERT”,“英文情感分析”的縮寫)能夠對各類英文文本進行可靠的二分類情感分析,為英文文本情感分析提供了高效且準確的解決方案。
🚀 快速開始
數據集預測
若你想對自己的數據集進行情感預測,我們通過 Google Colab 提供了示例腳本。你可以將數據加載到 Google 雲端硬盤,然後在 Colab 的 GPU 上免費運行腳本,設置過程只需幾分鐘。建議你手動標註部分數據,以評估該模型在你實際應用場景中的性能。若需瞭解不同情感分析場景下的性能基準值,請參考我們的論文(Hartmann 等人,2023)。

在 Hugging Face 管道中使用
使用該模型進行單條預測最簡單的方法是藉助 Hugging Face 的 情感分析管道,只需幾行代碼,示例如下:
from transformers import pipeline
sentiment_analysis = pipeline("sentiment-analysis", model="siebert/sentiment-roberta-large-english")
print(sentiment_analysis("I love this!"))

進一步微調使用
該模型也可作為起點,用於在你特定的數據集上對 RoBERTa 進行進一步微調。具體細節和示例代碼請參考 Hugging Face 的 文檔。
✨ 主要特性
- 可靠的情感分析:該模型(“SiEBERT”,“英文情感分析”的縮寫)是 RoBERTa-large(Liu 等人,2019)的微調版本,能夠對各類英文文本進行可靠的二分類情感分析,針對每個文本實例,預測其情感為積極(1)或消極(0)。
- 廣泛的泛化能力:模型在來自不同文本來源的 15 個數據集上進行了微調與評估,增強了在不同類型文本(評論、推文等)上的泛化能力。與僅在單一類型文本(如流行的 SST - 2 基準測試中的電影評論)上訓練的模型相比,在新數據上的表現更優。
📚 詳細文檔
性能表現
為評估我們通用情感分析模型的性能,我們從每個數據集中預留了一個評估集,該評估集未用於訓練。平均而言,我們的模型比 基於 DistilBERT 的模型(僅在流行的 SST - 2 數據集上微調)高出 15 個百分點以上(78.1% 對比 93.2%,見下表)。作為穩健性檢查,我們採用留一法評估模型(在 14 個數據集上訓練,在留出的一個數據集上評估),平均而言,模型性能僅下降約 3 個百分點,這凸顯了其泛化能力。模型性能以評估集的準確率百分比表示。
數據集 |
DistilBERT SST - 2 |
本模型 |
McAuley 和 Leskovec (2013) (評論) |
84.7 |
98.0 |
McAuley 和 Leskovec (2013) (評論標題) |
65.5 |
87.0 |
Yelp 學術數據集 |
84.8 |
96.5 |
Maas 等人 (2011) |
80.6 |
96.0 |
Kaggle |
87.2 |
96.0 |
Pang 和 Lee (2005) |
89.7 |
91.0 |
Nakov 等人 (2013) |
70.1 |
88.5 |
Shamma (2009) |
76.0 |
87.0 |
Blitzer 等人 (2007) (書籍) |
83.0 |
92.5 |
Blitzer 等人 (2007) (DVD) |
84.5 |
92.5 |
Blitzer 等人 (2007) (電子產品) |
74.5 |
95.0 |
Blitzer 等人 (2007) (廚房設備) |
80.0 |
98.5 |
Pang 等人 (2002) |
73.5 |
95.5 |
Speriosu 等人 (2011) |
71.5 |
85.5 |
Hartmann 等人 (2019) |
65.5 |
98.0 |
平均 |
78.1 |
93.2 |
微調超參數
- 學習率(learning_rate) = 2e - 5
- 訓練輪數(num_train_epochs) = 3.0
- 熱身步數(warmump_steps) = 500
- 權重衰減(weight_decay) = 0.01
其他參數保持 此處 列出的默認值。
📄 許可證
使用我們的模型時,請引用 這篇論文(發表於 IJRM)。如有任何問題或反饋,請隨時聯繫 christian.siebert@uni - hamburg.de。
@article{hartmann2023,
title = {More than a Feeling: Accuracy and Application of Sentiment Analysis},
journal = {International Journal of Research in Marketing},
volume = {40},
number = {1},
pages = {75-87},
year = {2023},
doi = {https://doi.org/10.1016/j.ijresmar.2022.05.005},
url = {https://www.sciencedirect.com/science/article/pii/S0167811622000477},
author = {Jochen Hartmann and Mark Heitmann and Christian Siebert and Christina Schamp},
}