🚀 MMLW-retrieval-roberta-large-v2
MMLW (muszę mieć lepszą wiadomość)は、ポーランド語用のニューラルテキストエンコーダです。第2版は同じ基礎モデル(polish-roberta-large-v2)に基づいていますが、トレーニングプロセスには最新のLLMベースの英語検索器と再ランキング器が組み込まれており、結果が改善されています。このモデルは情報検索タスクに最適化されており、クエリとパッセージを1024次元のベクトルに変換することができます。
✨ 主な機能
- ポーランド語用のニューラルテキストエンコーダで、情報検索タスクに最適化。
- クエリとパッセージを1024次元のベクトルに変換可能。
- トレーニングに最新のLLMベースの英語検索器と再ランキング器を組み込み、結果が改善。
📦 インストール
本READMEには具体的なインストール手順が記載されていないため、このセクションは省略されます。
💻 使用例
基本的な使用法
from sentence_transformers import SentenceTransformer
from sentence_transformers.util import cos_sim
model = SentenceTransformer(
"sdadas/mmlw-retrieval-roberta-large-v2",
trust_remote_code=True,
device="cuda",
model_kwargs={"attn_implementation": "flash_attention_2", "trust_remote_code": True}
)
model.bfloat16()
query_prefix = "[query]: "
queries = [query_prefix + "Jak dożyć 100 lat?"]
answers = [
"Trzeba zdrowo się odżywiać i uprawiać sport.",
"Trzeba pić alkohol, imprezować i jeździć szybkimi autami.",
"Gdy trwała kampania politycy zapewniali, że rozprawią się z zakazem niedzielnego handlu."
]
queries_emb = model.encode(queries, convert_to_tensor=True, show_progress_bar=False)
answers_emb = model.encode(answers, convert_to_tensor=True, show_progress_bar=False)
best_answer = cos_sim(queries_emb, answers_emb).argmax().item()
print(answers[best_answer])
sim_prefix = "[sts]: "
sentences = [
sim_prefix + "Trzeba zdrowo się odżywiać i uprawiać sport.",
sim_prefix + "Warto jest prowadzić zdrowy tryb życia, uwzględniający aktywność fizyczną i dietę.",
sim_prefix + "One should eat healthy and engage in sports.",
sim_prefix + "Zakupy potwierdzasz PINem, który bezpiecznie ustalisz podczas aktywacji."
]
emb = model.encode(sentences, convert_to_tensor=True, show_progress_bar=False)
print(cos_sim(emb, emb))
📚 ドキュメント
評価結果
このモデルは、ポーランド語情報検索ベンチマークでNDCG@10が60.71を達成しています。詳細な結果については、PIRB Leaderboardを参照してください。
引用
@inproceedings{dadas2024pirb,
title={PIRB: A Comprehensive Benchmark of Polish Dense and Hybrid Text Retrieval Methods},
author={Dadas, Slawomir and Pere{\l}kiewicz, Micha{\l} and Po{\'s}wiata, Rafa{\l}},
booktitle={Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024)},
pages={12761--12774},
year={2024}
}
🔧 技術詳細
このモデルは2段階の手順で開発されました。
📄 ライセンス
このモデルのライセンスはgemmaです。