🚀 句子相似度模型
本項目旨在使用自監督對比學習目標,在超大型句子級數據集上訓練句子嵌入模型。通過該模型,能夠將輸入的句子轉化為向量,捕捉句子的語義信息,可廣泛應用於信息檢索、聚類或句子相似度任務等領域。
🚀 快速開始
本模型可作為句子編碼器使用。給定輸入句子,它將輸出一個捕獲句子語義信息的向量。句子向量可用於信息檢索、聚類或句子相似度任務。
✨ 主要特性
- 大規模數據訓練:使用超過10億個句子對的數據集進行微調,使模型能學習到豐富的語義信息。
- 高效架構:基於預訓練的
MiniLM-L12
模型進行微調,結合高效的對比學習目標,在保證性能的同時提高訓練效率。
- 多領域適用性:訓練數據涵蓋了多種不同類型的數據集,包括問答、圖像描述、代碼搜索等,使模型具有廣泛的適用性。
📦 安裝指南
使用此模型前,需安裝SentenceTransformers
庫,可通過以下命令進行安裝:
pip install sentence-transformers
💻 使用示例
基礎用法
以下是如何使用SentenceTransformers庫來獲取給定文本特徵的示例代碼:
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('flax-sentence-embeddings/all_datasets_v3_MiniLM-L12')
text = "Replace me by any text you'd like."
text_embbedding = model.encode(text)
📚 詳細文檔
訓練過程
預訓練
我們使用了預訓練的MiniLM-L12
模型。有關預訓練過程的更多詳細信息,請參考該模型的卡片。
微調
我們使用對比目標對模型進行微調。具體來說,我們計算批次中每個可能句子對的餘弦相似度,然後通過與真實對進行比較來應用交叉熵損失。
超參數
我們在TPU v3 - 8上訓練模型。訓練共進行540k步,批次大小為1024(每個TPU核心128)。學習率預熱步數為500,序列長度限制為128個標記。我們使用AdamW優化器,學習率為2e - 5。完整的訓練腳本可在當前倉庫中獲取。
訓練數據
我們使用多個數據集的組合來微調模型。句子對的總數超過10億。每個數據集的採樣概率在data_config.json
文件中有詳細配置。
數據集 |
論文 |
訓練元組數量 |
GOOAQ: Open Question Answering with Diverse Answer Types |
論文 |
3,012,496 |
Stack Exchange |
- |
364,001 |
Flickr 30k |
論文 |
317,695 |
[COCO 2020](COCO 2020) |
論文 |
828,395 |
Code Search |
- |
1,151,414 |
TriviaqQA |
- |
73,346 |
SQuAD2.0 |
論文 |
87,599 |
Natural Questions (NQ) |
論文 |
100,231 |
Simple Wikipedia |
論文 |
102,225 |
Quora Question Pairs |
- |
103,663 |
Altlex |
論文 |
112,696 |
Wikihow |
論文 |
128,542 |
Sentence Compression |
論文 |
180,000 |
AllNLI (SNLI 和 MultiNLI |
論文 SNLI,論文 MultiNLI |
277,230 |
Eli5 |
論文 |
325,475 |
SPECTER |
論文 |
684,100 |
S2ORC 標題/摘要 |
論文 |
41,769,185 |
S2ORC 引用/引用 |
論文 |
52,603,982 |
S2ORC 引用/摘要 |
論文 |
116,288,806 |
PAQ |
論文 |
64,371,441 |
WikiAnswers |
論文 |
77,427,422 |
SearchQA |
- |
582,261 |
Yahoo Answers 標題/答案 |
論文 |
1,198,260 |
Yahoo Answers 標題/問題 |
論文 |
659,896 |
Yahoo Answers 問題/答案 |
論文 |
681,164 |
MS MARCO |
論文 |
9,144,553 |
Reddit conversationnal |
論文 |
726,484,430 |
總計 |
|
1,097,953,922 |
🔧 技術細節
- 模型架構:基於
MiniLM-L12
預訓練模型,通過微調適應句子嵌入任務。
- 對比學習目標:計算句子對的餘弦相似度,並使用交叉熵損失進行優化,使相似句子的向量在嵌入空間中更接近。
- 硬件加速:使用7個TPU v3 - 8進行訓練,並得到了Google的Flax、JAX和雲團隊成員在高效深度學習框架方面的支持。