🚀 all-mpnet-base-v2-embedding-all
该模型是 all-mpnet-base-v2 在以下数据集上的微调版本:squad、newsqa、LLukas22/cqadupstack、LLukas22/fiqa、LLukas22/scidocs、deepset/germanquad、LLukas22/nq。它可用于句子相似度计算等任务,为相关自然语言处理应用提供支持。
🚀 快速开始
当你安装了 sentence-transformers 后,使用该模型会变得很简单。
📦 安装指南
pip install -U sentence-transformers
💻 使用示例
基础用法
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('LLukas22/all-mpnet-base-v2-embedding-all')
embeddings = model.encode(sentences)
print(embeddings)
🔧 技术细节
训练超参数
训练过程中使用了以下超参数:
- 学习率:1E+00
- 每个设备的批量大小:60
- 有效批量大小:180
- 随机种子:42
- 优化器:AdamW,β值为 (0.9,0.999),ε值为 1E-08
- 权重衰减:2E-02
- D-Adaptation:True
- 预热:True
- 训练轮数:15
- 混合精度训练:bf16
训练结果
轮数 |
训练损失 |
验证损失 |
0 |
0.0554 |
0.047 |
1 |
0.044 |
0.0472 |
2 |
0.0374 |
0.0425 |
3 |
0.0322 |
0.041 |
4 |
0.0278 |
0.0403 |
5 |
0.0246 |
0.0389 |
6 |
0.0215 |
0.0389 |
7 |
0.0192 |
0.0388 |
8 |
0.017 |
0.0379 |
9 |
0.0154 |
0.0375 |
10 |
0.0142 |
0.0381 |
11 |
0.0132 |
0.0372 |
12 |
0.0126 |
0.0377 |
13 |
0.012 |
0.0377 |
评估结果
轮数 |
前1准确率 |
前3准确率 |
前5准确率 |
前10准确率 |
前25准确率 |
0 |
0.373 |
0.476 |
0.509 |
0.544 |
0.573 |
1 |
0.362 |
0.466 |
0.501 |
0.537 |
0.568 |
2 |
0.371 |
0.476 |
0.511 |
0.546 |
0.576 |
3 |
0.369 |
0.473 |
0.506 |
0.54 |
0.569 |
4 |
0.373 |
0.478 |
0.512 |
0.547 |
0.578 |
5 |
0.378 |
0.483 |
0.517 |
0.552 |
0.58 |
6 |
0.371 |
0.475 |
0.509 |
0.543 |
0.571 |
7 |
0.379 |
0.484 |
0.517 |
0.55 |
0.578 |
8 |
0.378 |
0.482 |
0.515 |
0.548 |
0.575 |
9 |
0.383 |
0.489 |
0.523 |
0.556 |
0.584 |
10 |
0.38 |
0.483 |
0.517 |
0.549 |
0.575 |
11 |
0.38 |
0.485 |
0.518 |
0.551 |
0.577 |
12 |
0.383 |
0.489 |
0.522 |
0.556 |
0.582 |
13 |
0.385 |
0.49 |
0.523 |
0.555 |
0.581 |
框架版本
- Transformers:4.25.1
- PyTorch:2.0.0.dev20230210+cu118
- PyTorch Lightning:1.8.6
- Datasets:2.7.1
- Tokenizers:0.13.1
- Sentence Transformers:2.2.2
📚 详细文档
该模型是作者硕士论文 'Evaluation of transformer based language models for use in service information systems' 的一部分。源代码可在 Github 上获取。
📄 许可证
本项目采用 Apache-2.0 许可证。