🚀 embaas/sentence-transformers-e5-large-v2
這是 intfloat/e5-large-v2 模型的 sentence-transformers 版本。它能將句子和段落映射到一個 1024 維的密集向量空間,可用於聚類或語義搜索等任務。
🚀 快速開始
本模型可以通過兩種方式使用,分別是使用 sentence-transformers
庫和使用 embaas API,下面為你詳細介紹。
✨ 主要特性
- 支持 sentence-transformers 庫,使用方便。
- 可通過 embaas API 進行輸入編碼。
- 可將句子和段落映射到 1024 維的密集向量空間。
📦 安裝指南
若要使用 sentence-transformers
庫調用此模型,你需要先安裝 sentence-transformers
:
pip install -U sentence-transformers
💻 使用示例
基礎用法
使用 sentence-transformers
庫調用模型的示例代碼如下:
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('embaas/sentence-transformers-e5-large-v2')
embeddings = model.encode(sentences)
print(embeddings)
高級用法
使用 embaas API 對輸入進行編碼。你可以從 embaas.io 獲取免費的 API 密鑰。
import requests
url = "https://api.embaas.io/v1/embeddings/"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer ${YOUR_API_KEY}"
}
data = {
"texts": ["This is an example sentence.", "Here is another sentence."],
"instruction": "query",
"model": "e5-large-v2"
}
response = requests.post(url, json=data, headers=headers)
📚 詳細文檔
評估結果
你可以在 MTEB 排行榜 上查看 e5 模型的評估結果。
完整模型架構
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False})
(2): Normalize()
)
引用與作者
關於該模型的更多信息,請參考相關文檔。
屬性 |
詳情 |
模型類型 |
sentence-transformers 版本的 e5-large-v2 模型 |
訓練數據 |
未提及 |
⚠️ 重要提示
使用 embaas API 時,需要從 embaas.io 獲取有效的 API 密鑰。
💡 使用建議
若要使用 sentence-transformers
庫調用模型,請確保已正確安裝該庫。