O

Opensearch Neural Sparse Encoding Doc V2 Distill

opensearch-projectによって開発
蒸留技術に基づくスパース検索モデルで、OpenSearch向けに最適化されており、推論不要のドキュメントエンコーディングをサポートし、検索関連性と効率性においてV1版を上回ります
ダウンロード数 1.8M
リリース時間 : 7/17/2024

モデル概要

このモデルはドキュメントを30522次元のスパースベクトルにエンコードし、クエリ/ドキュメントのスパースベクトルの内積計算によって類似度スコアを算出します。効率的な検索シナリオに適しています

モデル特徴

推論不要ドキュメントエンコーディング
リアルタイム推論を必要とせず直接ドキュメントをエンコード可能で、検索効率を大幅に向上
蒸留最適化
知識蒸留技術でモデルサイズを圧縮し、性能を維持しながら計算リソース消費を削減
高効率スパース検索
スパースベクトル表現とLucene転置インデックスを活用した効率的な類似度計算を実現
複数データセット学習
MS MARCO、Q&Aペアなど多様な学習データを統合し、汎化能力を向上

モデル能力

ドキュメントベクトル化エンコーディング
クエリスパースベクトル生成
意味的類似度計算
高効率検索

使用事例

検索エンジン
OpenSearchニューラル検索
OpenSearchのニューラル検索プラグインとして、意味ベースのドキュメント検索機能を提供
BEIRベンチマークテストで平均NDCG@10が0.504を達成
質問応答システム
Q&Aペア検索
ナレッジベースからユーザーの質問に関連する回答を迅速に検索
NQデータセットでNDCG@10が0.528を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase