🚀 roberta-base-legal-multi-downstream-indian-ner
本模型是基於 MHGanainy/roberta-base-legal-multi 在未知數據集上微調得到的版本。它在評估集上取得了以下結果:
- 損失值:0.2526
- 精確率:0.6406
- 召回率:0.8244
- F1 值:0.7210
- 準確率:0.9663
🚀 快速開始
此部分暫未提供相關內容。
✨ 主要特性
此部分暫未提供相關內容。
📦 安裝指南
此部分暫未提供相關內容。
💻 使用示例
此部分暫未提供相關內容。
📚 詳細文檔
模型描述
此部分暫未提供更多信息。
預期用途與侷限性
此部分暫未提供更多信息。
訓練和評估數據
此部分暫未提供更多信息。
🔧 技術細節
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:3e-05
- 訓練批次大小:64
- 評估批次大小:64
- 隨機種子:1
- 優化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e-08)
- 學習率調度器類型:線性
- 訓練輪數:20.0
- 混合精度訓練:Native AMP
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
精確率 |
召回率 |
F1 值 |
準確率 |
無記錄 |
1.0 |
172 |
0.2310 |
0.1233 |
0.4904 |
0.1971 |
0.8307 |
無記錄 |
2.0 |
344 |
0.1929 |
0.1983 |
0.5393 |
0.2900 |
0.8765 |
0.4324 |
3.0 |
516 |
0.1667 |
0.1773 |
0.4897 |
0.2604 |
0.8738 |
0.4324 |
4.0 |
688 |
0.1836 |
0.2957 |
0.6059 |
0.3975 |
0.9081 |
0.4324 |
5.0 |
860 |
0.2005 |
0.2855 |
0.5623 |
0.3787 |
0.9137 |
0.1106 |
6.0 |
1032 |
0.2003 |
0.3858 |
0.6974 |
0.4968 |
0.9323 |
0.1106 |
7.0 |
1204 |
0.2224 |
0.4182 |
0.6719 |
0.5155 |
0.9428 |
0.1106 |
8.0 |
1376 |
0.2221 |
0.3347 |
0.6147 |
0.4334 |
0.9312 |
0.0589 |
9.0 |
1548 |
0.1960 |
0.4067 |
0.7026 |
0.5152 |
0.9404 |
0.0589 |
10.0 |
1720 |
0.1904 |
0.5049 |
0.7410 |
0.6006 |
0.9524 |
0.0589 |
11.0 |
1892 |
0.2274 |
0.5337 |
0.7707 |
0.6307 |
0.9565 |
0.0359 |
12.0 |
2064 |
0.2471 |
0.5525 |
0.7696 |
0.6432 |
0.9575 |
0.0359 |
13.0 |
2236 |
0.2352 |
0.5649 |
0.7675 |
0.6508 |
0.9591 |
0.0359 |
14.0 |
2408 |
0.2297 |
0.5530 |
0.7661 |
0.6424 |
0.9586 |
0.0224 |
15.0 |
2580 |
0.2349 |
0.5702 |
0.7923 |
0.6632 |
0.9597 |
0.0224 |
16.0 |
2752 |
0.2465 |
0.6033 |
0.8052 |
0.6898 |
0.9624 |
0.0224 |
17.0 |
2924 |
0.2428 |
0.6100 |
0.8098 |
0.6959 |
0.9647 |
0.0143 |
18.0 |
3096 |
0.2543 |
0.6238 |
0.8154 |
0.7068 |
0.9646 |
0.0143 |
19.0 |
3268 |
0.2526 |
0.6305 |
0.8161 |
0.7114 |
0.9651 |
0.0143 |
20.0 |
3440 |
0.2526 |
0.6406 |
0.8244 |
0.7210 |
0.9663 |
框架版本
- Transformers 4.44.2
- Pytorch 2.4.0+cu121
- Datasets 2.21.0
- Tokenizers 0.19.1
📄 許可證
此部分暫未提供相關內容。