🚀 all-mpnet-base-v2-embedding-all
該模型是 all-mpnet-base-v2 在以下數據集上的微調版本:squad、newsqa、LLukas22/cqadupstack、LLukas22/fiqa、LLukas22/scidocs、deepset/germanquad、LLukas22/nq。它可用於句子相似度計算等任務,為相關自然語言處理應用提供支持。
🚀 快速開始
當你安裝了 sentence-transformers 後,使用該模型會變得很簡單。
📦 安裝指南
pip install -U sentence-transformers
💻 使用示例
基礎用法
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('LLukas22/all-mpnet-base-v2-embedding-all')
embeddings = model.encode(sentences)
print(embeddings)
🔧 技術細節
訓練超參數
訓練過程中使用了以下超參數:
- 學習率:1E+00
- 每個設備的批量大小:60
- 有效批量大小:180
- 隨機種子:42
- 優化器:AdamW,β值為 (0.9,0.999),ε值為 1E-08
- 權重衰減:2E-02
- D-Adaptation:True
- 預熱:True
- 訓練輪數:15
- 混合精度訓練:bf16
訓練結果
輪數 |
訓練損失 |
驗證損失 |
0 |
0.0554 |
0.047 |
1 |
0.044 |
0.0472 |
2 |
0.0374 |
0.0425 |
3 |
0.0322 |
0.041 |
4 |
0.0278 |
0.0403 |
5 |
0.0246 |
0.0389 |
6 |
0.0215 |
0.0389 |
7 |
0.0192 |
0.0388 |
8 |
0.017 |
0.0379 |
9 |
0.0154 |
0.0375 |
10 |
0.0142 |
0.0381 |
11 |
0.0132 |
0.0372 |
12 |
0.0126 |
0.0377 |
13 |
0.012 |
0.0377 |
評估結果
輪數 |
前1準確率 |
前3準確率 |
前5準確率 |
前10準確率 |
前25準確率 |
0 |
0.373 |
0.476 |
0.509 |
0.544 |
0.573 |
1 |
0.362 |
0.466 |
0.501 |
0.537 |
0.568 |
2 |
0.371 |
0.476 |
0.511 |
0.546 |
0.576 |
3 |
0.369 |
0.473 |
0.506 |
0.54 |
0.569 |
4 |
0.373 |
0.478 |
0.512 |
0.547 |
0.578 |
5 |
0.378 |
0.483 |
0.517 |
0.552 |
0.58 |
6 |
0.371 |
0.475 |
0.509 |
0.543 |
0.571 |
7 |
0.379 |
0.484 |
0.517 |
0.55 |
0.578 |
8 |
0.378 |
0.482 |
0.515 |
0.548 |
0.575 |
9 |
0.383 |
0.489 |
0.523 |
0.556 |
0.584 |
10 |
0.38 |
0.483 |
0.517 |
0.549 |
0.575 |
11 |
0.38 |
0.485 |
0.518 |
0.551 |
0.577 |
12 |
0.383 |
0.489 |
0.522 |
0.556 |
0.582 |
13 |
0.385 |
0.49 |
0.523 |
0.555 |
0.581 |
框架版本
- Transformers:4.25.1
- PyTorch:2.0.0.dev20230210+cu118
- PyTorch Lightning:1.8.6
- Datasets:2.7.1
- Tokenizers:0.13.1
- Sentence Transformers:2.2.2
📚 詳細文檔
該模型是作者碩士論文 'Evaluation of transformer based language models for use in service information systems' 的一部分。源代碼可在 Github 上獲取。
📄 許可證
本項目採用 Apache-2.0 許可證。