M

Mmlw Retrieval Roberta Large V2

sdadasによって開発
MMLWはポーランド語用のニューラルテキストエンコーダで、情報検索タスクに最適化されており、クエリと段落を1024次元のベクトルに変換することができます。
ダウンロード数 2,091
リリース時間 : 3/23/2025

モデル概要

このモデルはpolish - roberta - large - v2に基づいて、多言語知識蒸留と対照損失の微調整を行い、現代の大規模言語モデルベースの英語検索器と再ランキング器を組み込むことで、性能を向上させています。

モデル特徴

多言語知識蒸留
教師モデルとしてstella_en_1.5B_v5を使用して知識蒸留を行い、モデルの性能を向上させました。
対照損失の微調整
400万を超えるクエリのデータセットを使用して、対照損失による微調整を行い、情報検索の効果を最適化しました。
高次元ベクトル表現
クエリと段落を1024次元のベクトルに変換することができ、情報検索タスクに適しています。

モデル能力

情報検索
意味テキスト類似度計算

使用事例

情報検索
ポーランド語文書検索
ユーザーのクエリと文書ライブラリ内の段落をマッチングさせ、最も関連性の高い文書を返します。
ポーランド語情報検索ベンチマークテストでNDCG@10が60.71を達成しました。
意味類似度
ポーランド語文の類似度計算
2つのポーランド語文の間の意味類似度を計算します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase