🚀 DataikuNLP/distiluse-base-multilingual-cased-v1
本模型是來自 sentence-transformers 的 此模型倉庫 在特定提交版本 3a706e4d65c04f868c4684adfd4da74141be8732
的副本。
這是一個 sentence-transformers 模型:它可以將句子和段落映射到一個 512 維的密集向量空間,可用於聚類或語義搜索等任務。
🚀 快速開始
本模型使用 sentence-transformers 庫,安裝該庫後即可輕鬆使用本模型。
📦 安裝指南
pip install -U sentence-transformers
💻 使用示例
基礎用法
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('sentence-transformers/distiluse-base-multilingual-cased-v1')
embeddings = model.encode(sentences)
print(embeddings)
📚 詳細文檔
評估結果
要對該模型進行自動評估,請參考 Sentence Embeddings Benchmark:https://seb.sbert.net
完整模型架構
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: DistilBertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False})
(2): Dense({'in_features': 768, 'out_features': 512, 'bias': True, 'activation_function': 'torch.nn.modules.activation.Tanh'})
)
引用與作者
本模型由 sentence-transformers 訓練。
如果您覺得該模型有幫助,請引用我們的論文 Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks:
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "http://arxiv.org/abs/1908.10084",
}
📄 許可證
本項目採用 apache-2.0
許可證。
屬性 |
詳情 |
模型類型 |
sentence-transformers |
標籤 |
sentence-transformers、feature-extraction、sentence-similarity、transformers |
許可證 |
apache-2.0 |
任務標籤 |
sentence-similarity |