🚀 Amazon-Beauty-Product-Reviews-distilBERT-base情感分析模型
本模型基於DistilBERT微調,可用於對亞馬遜美妝產品評論進行情感分析,能有效處理文本分類任務,在評估集上取得了較好的準確率等指標。
🚀 快速開始
本部分暫未提供快速開始的相關內容,你可以參考後續章節瞭解模型詳情。
✨ 主要特性
- 微調優化:基於
distilbert-base-uncased
在亞馬遜美妝評論數據集上進行微調,適配特定領域的情感分析任務。
- 性能良好:在評估集上損失較低,準確率、精確率、召回率和F1值等指標表現出色。
📚 詳細文檔
🔍 模型詳情
模型描述
本模型是 distilbert-base-uncased 在 亞馬遜美妝評論數據集 的平衡子集上微調後的版本。
在評估集上取得了以下結果:
- 損失:0.5171
- 準確率:0.7862
- 精確率:0.7876
- 召回率:0.7860
- F1值:0.7867
開發者信息
屬性 |
詳情 |
開發者 |
Jiali Han |
模型類型 |
文本分類 |
語言 |
英語 |
許可證 |
Apache-2.0 |
父模型 |
有關DistilBERT的更多詳細信息,請查看 此模型卡片 |
更多信息資源 |
模型文檔;DistilBERT論文 |
💡 使用場景
直接應用
本模型可用於對亞馬遜美妝產品評論進行情感分析。
誤用和超出範圍使用
⚠️ 重要提示
請勿使用此模型故意創建對他人懷有敵意或排斥性的環境。此外,該模型並非用於生成真實反映人物或事件的內容,因此使用該模型生成此類內容超出了其能力範圍。
⚠️ 風險、限制和偏差
本模型可能會產生有偏差的預測,尤其會對代表性不足的群體產生影響。
用戶應針對特定用例評估模型的風險。
如需進一步評估偏差,可考慮以下數據集:
📈 訓練和評估
訓練數據
作者使用了 亞馬遜美妝評論數據集,該數據集經過平衡處理以解決類別不平衡問題。
訓練過程
訓練超參數
訓練期間使用了以下超參數:
- 學習率:5e-05
- 訓練批次大小:8
- 評估批次大小:8
- 隨機種子:0
- 優化器:使用
OptimizerNames.ADAMW_TORCH
,betas=(0.9, 0.999)
,epsilon=1e-08
,無額外優化器參數
- 學習率調度器類型:線性
- 訓練輪數:1
訓練結果
如需詳細的訓練日誌,請參考 Tensorboard 頁面。
訓練損失 |
輪數 |
步數 |
驗證損失 |
準確率 |
精確率 |
召回率 |
F1值 |
0.7283 |
0.0299 |
500 |
0.6867 |
0.7073 |
0.7038 |
0.7071 |
0.7030 |
0.6718 |
0.0598 |
1000 |
0.6067 |
0.7340 |
0.7478 |
0.7340 |
0.7377 |
0.6473 |
0.0898 |
1500 |
0.6154 |
0.7390 |
0.7508 |
0.7390 |
0.7416 |
0.616 |
0.1197 |
2000 |
0.6448 |
0.7423 |
0.7373 |
0.7420 |
0.7377 |
0.6123 |
0.1496 |
2500 |
0.6286 |
0.7241 |
0.7677 |
0.7243 |
0.7284 |
0.5874 |
0.1795 |
3000 |
0.5774 |
0.7516 |
0.7539 |
0.7515 |
0.7523 |
0.5746 |
0.2095 |
3500 |
0.5708 |
0.7564 |
0.7636 |
0.7563 |
0.7582 |
0.5917 |
0.2394 |
4000 |
0.5839 |
0.7596 |
0.7602 |
0.7595 |
0.7598 |
0.5774 |
0.2693 |
4500 |
0.6225 |
0.7526 |
0.7482 |
0.7524 |
0.7492 |
0.594 |
0.2992 |
5000 |
0.5531 |
0.7662 |
0.7694 |
0.7661 |
0.7673 |
0.5591 |
0.3292 |
5500 |
0.5770 |
0.7665 |
0.7645 |
0.7663 |
0.7645 |
0.5548 |
0.3591 |
6000 |
0.5805 |
0.7613 |
0.7579 |
0.7611 |
0.7584 |
0.5742 |
0.3890 |
6500 |
0.5592 |
0.7639 |
0.7665 |
0.7638 |
0.7636 |
0.5374 |
0.4189 |
7000 |
0.5548 |
0.7712 |
0.7776 |
0.7711 |
0.7735 |
0.5488 |
0.4489 |
7500 |
0.5622 |
0.7747 |
0.7747 |
0.7745 |
0.7746 |
0.5557 |
0.4788 |
8000 |
0.5698 |
0.7642 |
0.7822 |
0.7643 |
0.7670 |
0.556 |
0.5087 |
8500 |
0.5380 |
0.7754 |
0.7777 |
0.7753 |
0.7764 |
0.5325 |
0.5386 |
9000 |
0.5791 |
0.7754 |
0.7746 |
0.7751 |
0.7736 |
0.5301 |
0.5686 |
9500 |
0.5569 |
0.7753 |
0.7738 |
0.7751 |
0.7744 |
0.5232 |
0.5985 |
10000 |
0.5391 |
0.7782 |
0.7806 |
0.7780 |
0.7789 |
0.5462 |
0.6284 |
10500 |
0.5499 |
0.7729 |
0.7698 |
0.7726 |
0.7683 |
0.5614 |
0.6583 |
11000 |
0.5243 |
0.7803 |
0.7818 |
0.7801 |
0.7808 |
0.5376 |
0.6883 |
11500 |
0.5406 |
0.7795 |
0.7772 |
0.7794 |
0.7780 |
0.5287 |
0.7182 |
12000 |
0.5227 |
0.7797 |
0.7852 |
0.7796 |
0.7806 |
0.5149 |
0.7481 |
12500 |
0.5423 |
0.7803 |
0.7788 |
0.7801 |
0.7792 |
0.5312 |
0.7780 |
13000 |
0.5338 |
0.7771 |
0.7860 |
0.7771 |
0.7781 |
0.5204 |
0.8079 |
13500 |
0.5183 |
0.7843 |
0.7857 |
0.7841 |
0.7849 |
0.5412 |
0.8379 |
14000 |
0.5192 |
0.7844 |
0.7893 |
0.7843 |
0.7860 |
0.515 |
0.8678 |
14500 |
0.5135 |
0.7845 |
0.7858 |
0.7843 |
0.7850 |
0.5033 |
0.8977 |
15000 |
0.5254 |
0.7862 |
0.7882 |
0.7860 |
0.7870 |
0.5023 |
0.9276 |
15500 |
0.5251 |
0.7863 |
0.7853 |
0.7861 |
0.7856 |
0.5042 |
0.9576 |
16000 |
0.5215 |
0.7865 |
0.7864 |
0.7864 |
0.7864 |
0.5237 |
0.9875 |
16500 |
0.5171 |
0.7862 |
0.7876 |
0.7860 |
0.7867 |
評估結果
微調後的DistilBERT模型在以下數據集劃分上進行了評估:
評估是在一個三類情感分類任務上進行的。以下是詳細結果:
分類報告
標籤 |
精確率 |
召回率 |
F1值 |
支持樣本數 |
0 |
0.78 |
0.78 |
0.78 |
11163 |
1 |
0.69 |
0.70 |
0.69 |
11099 |
2 |
0.89 |
0.87 |
0.88 |
11155 |
準確率 |
|
|
0.78 |
33417 |
宏平均 |
0.79 |
0.78 |
0.78 |
33417 |
加權平均 |
0.79 |
0.78 |
0.79 |
33417 |
混淆矩陣
|
0 |
1 |
2 |
0 |
8672 |
2331 |
160 |
1 |
2292 |
7793 |
1014 |
2 |
169 |
1237 |
9749 |
框架版本
- Transformers 4.50.3
- Pytorch 2.6.0+cu124
- Tokenizers 0.21.1
📄 許可證
本模型使用的許可證為Apache-2.0。