🚀 MMLW-retrieval-roberta-large-v2
MMLW(必须有更好的消息)是用于波兰语的神经文本编码器。第二个版本基于相同的基础模型(polish - roberta - large - v2),但训练过程融入了现代基于大语言模型的英语检索器和重排器,从而取得了更好的效果。该模型针对信息检索任务进行了优化,能够将查询和段落转换为1024维向量。
🚀 快速开始
MMLW(必须有更好的消息)是用于波兰语的神经文本编码器。第二个版本基于相同的基础模型(polish - roberta - large - v2),但训练过程融入了现代基于大语言模型的英语检索器和重排器,从而取得了更好的效果。该模型针对信息检索任务进行了优化,能够将查询和段落转换为1024维向量。
模型的开发采用了两步流程:
✨ 主要特性
- 支持信息检索和语义文本相似度任务。
- 针对信息检索任务进行了优化,可将查询和段落转换为1024维向量。
- 训练过程融入现代基于大语言模型的英语检索器和重排器,效果更佳。
📦 安装指南
文档未提及安装步骤,此处跳过。
💻 使用示例
基础用法
from sentence_transformers import SentenceTransformer
from sentence_transformers.util import cos_sim
model = SentenceTransformer(
"sdadas/mmlw-retrieval-roberta-large-v2",
trust_remote_code=True,
device="cuda",
model_kwargs={"attn_implementation": "flash_attention_2", "trust_remote_code": True}
)
model.bfloat16()
query_prefix = "[query]: "
queries = [query_prefix + "Jak dożyć 100 lat?"]
answers = [
"Trzeba zdrowo się odżywiać i uprawiać sport.",
"Trzeba pić alkohol, imprezować i jeździć szybkimi autami.",
"Gdy trwała kampania politycy zapewniali, że rozprawią się z zakazem niedzielnego handlu."
]
queries_emb = model.encode(queries, convert_to_tensor=True, show_progress_bar=False)
answers_emb = model.encode(answers, convert_to_tensor=True, show_progress_bar=False)
best_answer = cos_sim(queries_emb, answers_emb).argmax().item()
print(answers[best_answer])
sim_prefix = "[sts]: "
sentences = [
sim_prefix + "Trzeba zdrowo się odżywiać i uprawiać sport.",
sim_prefix + "Warto jest prowadzić zdrowy tryb życia, uwzględniający aktywność fizyczną i dietę.",
sim_prefix + "One should eat healthy and engage in sports.",
sim_prefix + "Zakupy potwierdzasz PINem, który bezpiecznie ustalisz podczas aktywacji."
]
emb = model.encode(sentences, convert_to_tensor=True, show_progress_bar=False)
print(cos_sim(emb, emb))
📚 详细文档
评估结果
该模型在波兰语信息检索基准测试中实现了60.71的NDCG@10。详细结果请参阅PIRB排行榜。
引用
@inproceedings{dadas2024pirb,
title={PIRB: A Comprehensive Benchmark of Polish Dense and Hybrid Text Retrieval Methods},
author={Dadas, Slawomir and Pere{\l}kiewicz, Micha{\l} and Po{\'s}wiata, Rafa{\l}},
booktitle={Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024)},
pages={12761--12774},
year={2024}
}
📄 许可证
该模型的许可证为gemma。
属性 |
详情 |
模型类型 |
用于波兰语的神经文本编码器 |
训练数据 |
包含2000万对波兰语 - 英语文本的多样化语料库,以及由超过400万个查询组成的数据集 |