🚀 SentenceTransformer
本項目是一個經過訓練的 sentence-transformers 模型。它能夠將句子和段落映射到一個 1024 維的密集向量空間,可用於語義文本相似度計算、語義搜索、釋義挖掘、文本分類、聚類等任務。
🚀 快速開始
本模型可將句子和段落映射到 1024 維的密集向量空間,適用於語義文本相似度計算、語義搜索等多種自然語言處理任務。
✨ 主要特性
- 支持波斯語句子和段落的處理。
- 能夠將輸入映射到 1024 維的密集向量空間。
- 可用於語義文本相似度、語義搜索、釋義挖掘、文本分類、聚類等多種任務。
📦 安裝指南
首先,你需要安裝 Sentence Transformers 庫:
pip install -U sentence-transformers
💻 使用示例
基礎用法
安裝完成後,你可以加載這個模型並進行推理:
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("PartAI/Tooka-SBERT")
sentences = [
'درنا از پرندگان مهاجر با پاهای بلند و گردن دراز است.',
'درناها با قامتی بلند و بالهای پهن، از زیباترین پرندگان مهاجر به شمار میروند.',
'درناها پرندگانی کوچک با پاهای کوتاه هستند که مهاجرت نمیکنند.'
]
embeddings = model.encode(sentences)
print(embeddings.shape)
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
📚 詳細文檔
模型詳情
屬性 |
詳情 |
模型類型 |
Sentence Transformer |
基礎模型 |
TookaBERT-Large |
最大序列長度 |
512 個詞元 |
輸出維度 |
1024 個詞元 |
相似度函數 |
餘弦相似度 |
語言 |
波斯語 |
📄 許可證
本項目採用 Apache-2.0 許可證。
📖 引用
如果你使用了本模型,請按照以下格式引用:
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
CachedMultipleNegativesRankingLoss
@misc{gao2021scaling,
title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
year={2021},
eprint={2101.06983},
archivePrefix={arXiv},
primaryClass={cs.LG}
}