🚀 phayathaibert - thainer
本模型是基於 clicknext/phayathaibert 在未知數據集上微調得到的版本。它在評估集上取得了以下成果:
- 損失值:0.1324
- 精確率:0.8432
- 召回率:0.8915
- F1值:0.8666
- 準確率:0.9735
🚀 快速開始
本模型是基於 clicknext/phayathaibert 在未知數據集上微調得到的版本。它在評估集上取得了以下成果:
- 損失值:0.1324
- 精確率:0.8432
- 召回率:0.8915
- F1值:0.8666
- 準確率:0.9735
✨ 主要特性
- 基礎模型:clicknext/phayathaibert
- 標籤:generated_from_trainer
- 評估指標:精確率、召回率、F1值、準確率
- 模型索引:phayathaibert - thainer
- 使用示例:提供了兩個文本示例用於測試
- 許可證:MIT
- 語言:泰語
- 庫名稱:transformers
- 任務類型:標記分類
- 數據集:pythainlp/thainer - corpus - v2
📦 安裝指南
文檔未提及安裝步驟,故跳過。
💻 使用示例
文檔未提供代碼示例,故跳過。
📚 詳細文檔
模型描述
更多信息待補充。
預期用途與限制
更多信息待補充。
訓練和評估數據
更多信息待補充。
訓練過程
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:2e - 05
- 訓練批次大小:8
- 評估批次大小:8
- 隨機種子:42
- 優化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 學習率調度器類型:線性
- 訓練輪數:10
- 混合精度訓練:Native AMP
訓練結果
訓練損失 |
輪數 |
步數 |
驗證損失 |
精確率 |
召回率 |
F1值 |
準確率 |
無記錄 |
1.0 |
493 |
0.1401 |
0.7300 |
0.7941 |
0.7607 |
0.9607 |
0.3499 |
2.0 |
986 |
0.1201 |
0.7863 |
0.8464 |
0.8152 |
0.9688 |
0.0961 |
3.0 |
1479 |
0.1169 |
0.8050 |
0.8663 |
0.8345 |
0.9715 |
0.0617 |
4.0 |
1972 |
0.1137 |
0.8155 |
0.8656 |
0.8398 |
0.9718 |
0.0438 |
5.0 |
2465 |
0.1280 |
0.8201 |
0.8714 |
0.8450 |
0.9725 |
0.0302 |
6.0 |
2958 |
0.1386 |
0.8266 |
0.8730 |
0.8492 |
0.9726 |
0.0239 |
7.0 |
3451 |
0.1401 |
0.8353 |
0.8789 |
0.8565 |
0.9733 |
0.0166 |
8.0 |
3944 |
0.1444 |
0.8356 |
0.8782 |
0.8564 |
0.9738 |
0.0139 |
9.0 |
4437 |
0.1530 |
0.8341 |
0.8785 |
0.8557 |
0.9735 |
0.0106 |
10.0 |
4930 |
0.1508 |
0.8394 |
0.8782 |
0.8583 |
0.9738 |
框架版本
- Transformers 4.35.2
- Pytorch 2.1.0 + cu118
- Datasets 2.15.0
- Tokenizers 0.15.0
🔧 技術細節
文檔未提供足夠的技術實現細節(具體說明少於50字),故跳過。
📄 許可證
本模型使用的許可證為 MIT 許可證。