🚀 barthez-orange-ft
這個模型是 moussaKam/barthez-orangesum-abstract 在無特定數據集上的微調版本。它在評估集上取得了以下成果,可用於文本摘要等相關任務。
🚀 快速開始
此模型是 moussaKam/barthez-orangesum-abstract 在無特定數據集上的微調版本。在評估集上達成了如下結果:
- 損失值(Loss):0.1689
- Rouge1:0.6719
- Rouge2:0.6536
- Rougel:0.6719
- Rougelsum:0.6722
- 生成長度(Gen Len):20.0
📚 詳細文檔
訓練過程
訓練超參數
訓練期間使用了以下超參數:
- 學習率(learning_rate):2e - 05
- 訓練批次大小(train_batch_size):16
- 評估批次大小(eval_batch_size):32
- 隨機種子(seed):42
- 梯度累積步數(gradient_accumulation_steps):8
- 總訓練批次大小(total_train_batch_size):128
- 優化器(optimizer):Adam,β值為(0.9, 0.999),ε值為1e - 08
- 學習率調度器類型(lr_scheduler_type):線性
- 訓練輪數(num_epochs):20
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
Rouge1 |
Rouge2 |
Rougel |
Rougelsum |
生成長度 |
無日誌記錄 |
1.0 |
31 |
4.6662 |
0.6719 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
1.99 |
62 |
0.6939 |
0.6718 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
2.99 |
93 |
0.2939 |
0.6718 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
3.98 |
124 |
0.2089 |
0.6719 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
4.98 |
155 |
0.1880 |
0.6719 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
5.98 |
186 |
0.1795 |
0.6719 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
6.97 |
217 |
0.1752 |
0.6719 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
8.0 |
249 |
0.1732 |
0.6719 |
0.6535 |
0.6718 |
0.6721 |
20.0 |
無日誌記錄 |
9.0 |
280 |
0.1716 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
9.99 |
311 |
0.1707 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
10.99 |
342 |
0.1704 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
11.98 |
373 |
0.1696 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
12.98 |
404 |
0.1698 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
13.98 |
435 |
0.1695 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
14.97 |
466 |
0.1693 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
無日誌記錄 |
16.0 |
498 |
0.1691 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
0.9743 |
17.0 |
529 |
0.1691 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
0.9743 |
17.99 |
560 |
0.1690 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
0.9743 |
18.99 |
591 |
0.1689 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
0.9743 |
19.92 |
620 |
0.1689 |
0.6719 |
0.6536 |
0.6719 |
0.6722 |
20.0 |
框架版本
- Transformers 4.31.0
- Pytorch 2.1.2
- Datasets 2.18.0
- Tokenizers 0.13.3
📄 許可證
該模型使用的許可證是 Apache - 2.0。
屬性 |
詳情 |
模型類型 |
基於barthez-orangesum-abstract微調的模型 |
訓練數據 |
未指定 |