🚀 LaBSE
LaBSE(Language-agnostic BERT Sentence Encoder)是一個基於BERT的模型,可針對109種語言進行句子嵌入。它結合了掩碼語言建模和翻譯語言建模的預訓練過程,能有效獲取多語言句子嵌入,適用於雙語文本檢索任務。
✨ 主要特性
- 多語言支持:支持多達109種語言,包括但不限於英語、中文、日語、意大利語等。
- 句子嵌入:能夠生成高質量的句子嵌入,用於句子相似度計算等任務。
- 模型遷移:從TF Hub的v2模型遷移而來,且兩個版本生成的嵌入結果等效。
📦 安裝指南
此文檔未提及具體安裝步驟,若使用相關模型,可參考Hugging Face的相關安裝說明。
💻 使用示例
基礎用法
import torch
from transformers import BertModel, BertTokenizerFast
tokenizer = BertTokenizerFast.from_pretrained("setu4993/LaBSE")
model = BertModel.from_pretrained("setu4993/LaBSE")
model = model.eval()
english_sentences = [
"dog",
"Puppies are nice.",
"I enjoy taking long walks along the beach with my dog.",
]
english_inputs = tokenizer(english_sentences, return_tensors="pt", padding=True)
with torch.no_grad():
english_outputs = model(**english_inputs)
高級用法
獲取句子嵌入
english_embeddings = english_outputs.pooler_output
其他語言輸出
italian_sentences = [
"cane",
"I cuccioli sono carini.",
"Mi piace fare lunghe passeggiate lungo la spiaggia con il mio cane.",
]
japanese_sentences = ["犬", "子犬はいいです", "私は犬と一緒にビーチを散歩するのが好きです"]
italian_inputs = tokenizer(italian_sentences, return_tensors="pt", padding=True)
japanese_inputs = tokenizer(japanese_sentences, return_tensors="pt", padding=True)
with torch.no_grad():
italian_outputs = model(**italian_inputs)
japanese_outputs = model(**japanese_inputs)
italian_embeddings = italian_outputs.pooler_output
japanese_embeddings = japanese_outputs.pooler_output
計算句子相似度
import torch.nn.functional as F
def similarity(embeddings_1, embeddings_2):
normalized_embeddings_1 = F.normalize(embeddings_1, p=2)
normalized_embeddings_2 = F.normalize(embeddings_2, p=2)
return torch.matmul(
normalized_embeddings_1, normalized_embeddings_2.transpose(0, 1)
)
print(similarity(english_embeddings, italian_embeddings))
print(similarity(english_embeddings, japanese_embeddings))
print(similarity(italian_embeddings, japanese_embeddings))
📚 詳細文檔
關於數據、訓練、評估和性能指標的詳細信息,請參考原始論文。
🔧 技術細節
該模型是基於BERT架構,預訓練過程結合了掩碼語言建模和翻譯語言建模。它從TF Hub的v2模型遷移而來,使用基於字典的輸入,且兩個版本生成的嵌入結果等效,具體可參考測試代碼。
📄 許可證
本項目採用Apache-2.0許可證。
BibTeX引用
@misc{feng2020languageagnostic,
title={Language-agnostic BERT Sentence Embedding},
author={Fangxiaoyu Feng and Yinfei Yang and Daniel Cer and Naveen Arivazhagan and Wei Wang},
year={2020},
eprint={2007.01852},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📋 模型信息
屬性 |
詳情 |
支持語言 |
af、am、ar、as、az等109種語言 |
模型類型 |
基於BERT的句子編碼器 |
訓練數據 |
CommonCrawl、Wikipedia |
標籤 |
bert、sentence_embedding、multilingual、google、sentence-similarity |