🚀 phayathaibert - thainer
本模型是基于 clicknext/phayathaibert 在未知数据集上微调得到的版本。它在评估集上取得了以下成果:
- 损失值:0.1324
- 精确率:0.8432
- 召回率:0.8915
- F1值:0.8666
- 准确率:0.9735
🚀 快速开始
本模型是基于 clicknext/phayathaibert 在未知数据集上微调得到的版本。它在评估集上取得了以下成果:
- 损失值:0.1324
- 精确率:0.8432
- 召回率:0.8915
- F1值:0.8666
- 准确率:0.9735
✨ 主要特性
- 基础模型:clicknext/phayathaibert
- 标签:generated_from_trainer
- 评估指标:精确率、召回率、F1值、准确率
- 模型索引:phayathaibert - thainer
- 使用示例:提供了两个文本示例用于测试
- 许可证:MIT
- 语言:泰语
- 库名称:transformers
- 任务类型:标记分类
- 数据集:pythainlp/thainer - corpus - v2
📦 安装指南
文档未提及安装步骤,故跳过。
💻 使用示例
文档未提供代码示例,故跳过。
📚 详细文档
模型描述
更多信息待补充。
预期用途与限制
更多信息待补充。
训练和评估数据
更多信息待补充。
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率:2e - 05
- 训练批次大小:8
- 评估批次大小:8
- 随机种子:42
- 优化器:Adam(β1 = 0.9,β2 = 0.999,ε = 1e - 08)
- 学习率调度器类型:线性
- 训练轮数:10
- 混合精度训练:Native AMP
训练结果
训练损失 |
轮数 |
步数 |
验证损失 |
精确率 |
召回率 |
F1值 |
准确率 |
无记录 |
1.0 |
493 |
0.1401 |
0.7300 |
0.7941 |
0.7607 |
0.9607 |
0.3499 |
2.0 |
986 |
0.1201 |
0.7863 |
0.8464 |
0.8152 |
0.9688 |
0.0961 |
3.0 |
1479 |
0.1169 |
0.8050 |
0.8663 |
0.8345 |
0.9715 |
0.0617 |
4.0 |
1972 |
0.1137 |
0.8155 |
0.8656 |
0.8398 |
0.9718 |
0.0438 |
5.0 |
2465 |
0.1280 |
0.8201 |
0.8714 |
0.8450 |
0.9725 |
0.0302 |
6.0 |
2958 |
0.1386 |
0.8266 |
0.8730 |
0.8492 |
0.9726 |
0.0239 |
7.0 |
3451 |
0.1401 |
0.8353 |
0.8789 |
0.8565 |
0.9733 |
0.0166 |
8.0 |
3944 |
0.1444 |
0.8356 |
0.8782 |
0.8564 |
0.9738 |
0.0139 |
9.0 |
4437 |
0.1530 |
0.8341 |
0.8785 |
0.8557 |
0.9735 |
0.0106 |
10.0 |
4930 |
0.1508 |
0.8394 |
0.8782 |
0.8583 |
0.9738 |
框架版本
- Transformers 4.35.2
- Pytorch 2.1.0 + cu118
- Datasets 2.15.0
- Tokenizers 0.15.0
🔧 技术细节
文档未提供足够的技术实现细节(具体说明少于50字),故跳过。
📄 许可证
本模型使用的许可证为 MIT 许可证。