🚀 rubert-base-srl-seqlabeling
该模型是在未知数据集上对 ./ruBert-base/ 进行微调后的版本。它在评估集上取得了一系列评估指标结果,可用于语义角色标注相关任务,为自然语言处理提供了有效的解决方案。
🚀 快速开始
此部分文档未提供快速开始相关内容,若有需要可根据模型特点和使用场景,参考相关代码库和工具进行使用。
✨ 主要特性
该模型是基于 ./ruBert-base/ 微调而来,在评估集上有如下表现:
属性 |
详情 |
损失值 |
0.1723 |
施动者精确率 |
0.8539 |
施动者召回率 |
0.8352 |
施动者F1值 |
0.8444 |
施动者数量 |
91 |
感受者精确率 |
0.9259 |
感受者召回率 |
0.9740 |
感受者F1值 |
0.9494 |
感受者数量 |
77 |
工具精确率 |
0.375 |
工具召回率 |
1.0 |
工具F1值 |
0.5455 |
工具数量 |
3 |
其他精确率 |
0.0 |
其他召回率 |
0.0 |
其他F1值 |
0.0 |
其他数量 |
1 |
谓词精确率 |
0.9352 |
谓词召回率 |
0.9902 |
谓词F1值 |
0.9619 |
谓词数量 |
102 |
整体精确率 |
0.8916 |
整体召回率 |
0.9307 |
整体F1值 |
0.9107 |
整体准确率 |
0.9667 |
📚 详细文档
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率:5e - 05
- 训练批次大小:16
- 评估批次大小:8
- 随机种子:42
- 优化器:Adam,其中 betas = (0.9, 0.98),epsilon = 1e - 06
- 学习率调度器类型:cosine
- 学习率调度器热身比例:0.06
- 训练轮数:10.0
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
施动者精确率 |
施动者召回率 |
施动者F1值 |
施动者数量 |
感受者精确率 |
感受者召回率 |
感受者F1值 |
感受者数量 |
工具精确率 |
工具召回率 |
工具F1值 |
工具数量 |
其他精确率 |
其他召回率 |
其他F1值 |
其他数量 |
谓词精确率 |
谓词召回率 |
谓词F1值 |
谓词数量 |
整体精确率 |
整体召回率 |
整体F1值 |
整体准确率 |
0.2552 |
1.0 |
56 |
0.3471 |
0.8841 |
0.6703 |
0.7625 |
91 |
0.8421 |
0.8312 |
0.8366 |
77 |
0.0 |
0.0 |
0.0 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9259 |
0.9804 |
0.9524 |
102 |
0.8893 |
0.8212 |
0.8539 |
0.9203 |
0.2385 |
2.0 |
112 |
0.1608 |
0.9103 |
0.7802 |
0.8402 |
91 |
0.9375 |
0.9740 |
0.9554 |
77 |
0.2857 |
0.6667 |
0.4 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9519 |
0.9706 |
0.9612 |
102 |
0.9182 |
0.9015 |
0.9098 |
0.9554 |
0.0367 |
3.0 |
168 |
0.1311 |
0.8902 |
0.8022 |
0.8439 |
91 |
0.9375 |
0.9740 |
0.9554 |
77 |
0.4286 |
1.0 |
0.6 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9709 |
0.9804 |
0.9756 |
102 |
0.9228 |
0.9161 |
0.9194 |
0.9673 |
0.0494 |
4.0 |
224 |
0.1507 |
0.7812 |
0.8242 |
0.8021 |
91 |
0.9241 |
0.9481 |
0.9359 |
77 |
0.4286 |
1.0 |
0.6 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9524 |
0.9804 |
0.9662 |
102 |
0.8746 |
0.9161 |
0.8948 |
0.9637 |
0.0699 |
5.0 |
280 |
0.1830 |
0.8276 |
0.7912 |
0.8090 |
91 |
0.8941 |
0.9870 |
0.9383 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.875 |
0.9197 |
0.8968 |
0.9560 |
0.0352 |
6.0 |
336 |
0.1994 |
0.7857 |
0.8462 |
0.8148 |
91 |
0.9048 |
0.9870 |
0.9441 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9266 |
0.9902 |
0.9573 |
102 |
0.8595 |
0.9380 |
0.8970 |
0.9572 |
0.0186 |
7.0 |
392 |
0.1657 |
0.8652 |
0.8462 |
0.8556 |
91 |
0.9146 |
0.9740 |
0.9434 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8920 |
0.9343 |
0.9127 |
0.9673 |
0.0052 |
8.0 |
448 |
0.1716 |
0.8556 |
0.8462 |
0.8508 |
91 |
0.9259 |
0.9740 |
0.9494 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8920 |
0.9343 |
0.9127 |
0.9673 |
0.0094 |
9.0 |
504 |
0.1715 |
0.8444 |
0.8352 |
0.8398 |
91 |
0.9259 |
0.9740 |
0.9494 |
77 |
0.4286 |
1.0 |
0.6 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8916 |
0.9307 |
0.9107 |
0.9667 |
0.0078 |
10.0 |
560 |
0.1723 |
0.8539 |
0.8352 |
0.8444 |
91 |
0.9259 |
0.9740 |
0.9494 |
77 |
0.375 |
1.0 |
0.5455 |
3 |
0.0 |
0.0 |
0.0 |
1 |
0.9352 |
0.9902 |
0.9619 |
102 |
0.8916 |
0.9307 |
0.9107 |
0.9667 |
框架版本
- Transformers 4.13.0.dev0
- Pytorch 1.10.0+cu102
- Datasets 1.15.1
- Tokenizers 0.10.3