🚀 roberta-base-legal-multi-downstream-indian-ner
本模型是基于 MHGanainy/roberta-base-legal-multi 在未知数据集上微调得到的版本。它在评估集上取得了以下结果:
- 损失值:0.2526
- 精确率:0.6406
- 召回率:0.8244
- F1 值:0.7210
- 准确率:0.9663
🚀 快速开始
此部分暂未提供相关内容。
✨ 主要特性
此部分暂未提供相关内容。
📦 安装指南
此部分暂未提供相关内容。
💻 使用示例
此部分暂未提供相关内容。
📚 详细文档
模型描述
此部分暂未提供更多信息。
预期用途与局限性
此部分暂未提供更多信息。
训练和评估数据
此部分暂未提供更多信息。
🔧 技术细节
训练超参数
训练过程中使用了以下超参数:
- 学习率:3e-05
- 训练批次大小:64
- 评估批次大小:64
- 随机种子:1
- 优化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 学习率调度器类型:线性
- 训练轮数:20.0
- 混合精度训练:Native AMP
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
精确率 |
召回率 |
F1 值 |
准确率 |
无记录 |
1.0 |
172 |
0.2310 |
0.1233 |
0.4904 |
0.1971 |
0.8307 |
无记录 |
2.0 |
344 |
0.1929 |
0.1983 |
0.5393 |
0.2900 |
0.8765 |
0.4324 |
3.0 |
516 |
0.1667 |
0.1773 |
0.4897 |
0.2604 |
0.8738 |
0.4324 |
4.0 |
688 |
0.1836 |
0.2957 |
0.6059 |
0.3975 |
0.9081 |
0.4324 |
5.0 |
860 |
0.2005 |
0.2855 |
0.5623 |
0.3787 |
0.9137 |
0.1106 |
6.0 |
1032 |
0.2003 |
0.3858 |
0.6974 |
0.4968 |
0.9323 |
0.1106 |
7.0 |
1204 |
0.2224 |
0.4182 |
0.6719 |
0.5155 |
0.9428 |
0.1106 |
8.0 |
1376 |
0.2221 |
0.3347 |
0.6147 |
0.4334 |
0.9312 |
0.0589 |
9.0 |
1548 |
0.1960 |
0.4067 |
0.7026 |
0.5152 |
0.9404 |
0.0589 |
10.0 |
1720 |
0.1904 |
0.5049 |
0.7410 |
0.6006 |
0.9524 |
0.0589 |
11.0 |
1892 |
0.2274 |
0.5337 |
0.7707 |
0.6307 |
0.9565 |
0.0359 |
12.0 |
2064 |
0.2471 |
0.5525 |
0.7696 |
0.6432 |
0.9575 |
0.0359 |
13.0 |
2236 |
0.2352 |
0.5649 |
0.7675 |
0.6508 |
0.9591 |
0.0359 |
14.0 |
2408 |
0.2297 |
0.5530 |
0.7661 |
0.6424 |
0.9586 |
0.0224 |
15.0 |
2580 |
0.2349 |
0.5702 |
0.7923 |
0.6632 |
0.9597 |
0.0224 |
16.0 |
2752 |
0.2465 |
0.6033 |
0.8052 |
0.6898 |
0.9624 |
0.0224 |
17.0 |
2924 |
0.2428 |
0.6100 |
0.8098 |
0.6959 |
0.9647 |
0.0143 |
18.0 |
3096 |
0.2543 |
0.6238 |
0.8154 |
0.7068 |
0.9646 |
0.0143 |
19.0 |
3268 |
0.2526 |
0.6305 |
0.8161 |
0.7114 |
0.9651 |
0.0143 |
20.0 |
3440 |
0.2526 |
0.6406 |
0.8244 |
0.7210 |
0.9663 |
框架版本
- Transformers 4.44.2
- Pytorch 2.4.0+cu121
- Datasets 2.21.0
- Tokenizers 0.19.1
📄 许可证
此部分暂未提供相关内容。