🚀 rubert-base-srl-seqlabeling
該模型是在未知數據集上對 ./ruBert-base/ 進行微調後的版本。它在評估集上取得了一系列評估指標結果,可用於語義角色標註相關任務,為自然語言處理提供了有效的解決方案。
🚀 快速開始
此部分文檔未提供快速開始相關內容,若有需要可根據模型特點和使用場景,參考相關代碼庫和工具進行使用。
✨ 主要特性
該模型是基於 ./ruBert-base/ 微調而來,在評估集上有如下表現:
屬性 |
詳情 |
損失值 |
0.1723 |
施動者精確率 |
0.8539 |
施動者召回率 |
0.8352 |
施動者F1值 |
0.8444 |
施動者數量 |
91 |
感受者精確率 |
0.9259 |
感受者召回率 |
0.9740 |
感受者F1值 |
0.9494 |
感受者數量 |
77 |
工具精確率 |
0.375 |
工具召回率 |
1.0 |
工具F1值 |
0.5455 |
工具數量 |
3 |
其他精確率 |
0.0 |
其他召回率 |
0.0 |
其他F1值 |
0.0 |
其他數量 |
1 |
謂詞精確率 |
0.9352 |
謂詞召回率 |
0.9902 |
謂詞F1值 |
0.9619 |
謂詞數量 |
102 |
整體精確率 |
0.8916 |
整體召回率 |
0.9307 |
整體F1值 |
0.9107 |
整體準確率 |
0.9667 |
📚 詳細文檔
訓練過程
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:5e - 05
- 訓練批次大小:16
- 評估批次大小:8
- 隨機種子:42
- 優化器:Adam,其中 betas = (0.9, 0.98),epsilon = 1e - 06
- 學習率調度器類型:cosine
- 學習率調度器熱身比例:0.06
- 訓練輪數:10.0
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
施動者精確率 |
施動者召回率 |
施動者F1值 |
施動者數量 |
感受者精確率 |
感受者召回率 |
感受者F1值 |
感受者數量 |
工具精確率 |
工具召回率 |
工具F1值 |
工具數量 |
其他精確率 |
其他召回率 |
其他F1值 |
其他數量 |
謂詞精確率 |
謂詞召回率 |
謂詞F1值 |
謂詞數量 |
整體精確率 |
整體召回率 |
整體F1值 |
整體準確率 |
0.2552 |
1.0 |
56 |
0.3471 |
0.8841 |
0.6703 |
0.7625 |
91 |
0.8421 |
0.8312 |
0.8366 |
77 |
0.0 |
0.0 |
0.0 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9259 |
0.9804 |
0.9524 |
102 |
0.8893 |
0.8212 |
0.8539 |
0.9203 |
0.2385 |
2.0 |
112 |
0.1608 |
0.9103 |
0.7802 |
0.8402 |
91 |
0.9375 |
0.9740 |
0.9554 |
77 |
0.2857 |
0.6667 |
0.4 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9519 |
0.9706 |
0.9612 |
102 |
0.9182 |
0.9015 |
0.9098 |
0.9554 |
0.0367 |
3.0 |
168 |
0.1311 |
0.8902 |
0.8022 |
0.8439 |
91 |
0.9375 |
0.9740 |
0.9554 |
77 |
0.4286 |
1.0 |
0.6 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9709 |
0.9804 |
0.9756 |
102 |
0.9228 |
0.9161 |
0.9194 |
0.9673 |
0.0494 |
4.0 |
224 |
0.1507 |
0.7812 |
0.8242 |
0.8021 |
91 |
0.9241 |
0.9481 |
0.9359 |
77 |
0.4286 |
1.0 |
0.6 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9524 |
0.9804 |
0.9662 |
102 |
0.8746 |
0.9161 |
0.8948 |
0.9637 |
0.0699 |
5.0 |
280 |
0.1830 |
0.8276 |
0.7912 |
0.8090 |
91 |
0.8941 |
0.9870 |
0.9383 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.875 |
0.9197 |
0.8968 |
0.9560 |
0.0352 |
6.0 |
336 |
0.1994 |
0.7857 |
0.8462 |
0.8148 |
91 |
0.9048 |
0.9870 |
0.9441 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9266 |
0.9902 |
0.9573 |
102 |
0.8595 |
0.9380 |
0.8970 |
0.9572 |
0.0186 |
7.0 |
392 |
0.1657 |
0.8652 |
0.8462 |
0.8556 |
91 |
0.9146 |
0.9740 |
0.9434 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8920 |
0.9343 |
0.9127 |
0.9673 |
0.0052 |
8.0 |
448 |
0.1716 |
0.8556 |
0.8462 |
0.8508 |
91 |
0.9259 |
0.9740 |
0.9494 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8920 |
0.9343 |
0.9127 |
0.9673 |
0.0094 |
9.0 |
504 |
0.1715 |
0.8444 |
0.8352 |
0.8398 |
91 |
0.9259 |
0.9740 |
0.9494 |
77 |
0.4286 |
1.0 |
0.6 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8916 |
0.9307 |
0.9107 |
0.9667 |
0.0078 |
10.0 |
560 |
0.1723 |
0.8539 |
0.8352 |
0.8444 |
91 |
0.9259 |
0.9740 |
0.9494 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8916 |
0.9307 |
0.9107 |
0.9667 |
框架版本
- Transformers 4.13.0.dev0
- Pytorch 1.10.0+cu102
- Datasets 1.15.1
- Tokenizers 0.10.3