NV Retriever V1
N
NV Retriever V1
nvidiaによって開発
NV-Retriever-v1は検索モデルで、MTEB ArguAnaおよびCQADupstackAndroidRetrievalデータセットで優れた性能を発揮し、効率的な検索能力を備えています。
ダウンロード数 26
リリース時間 : 7/8/2024
モデル概要
このモデルは主に情報検索タスクに使用され、大規模データセットから関連するドキュメントまたは回答を効率的に検索することができます。
モデル特徴
効率的な検索
複数の標準データセットで優れた性能を発揮し、効率的な検索能力を備えています。
複数データセット対応
MTEB ArguAnaやCQADupstackAndroidRetrievalなどの複数のデータセットで評価されています。
モデル能力
情報検索
ドキュメントマッチング
使用事例
情報検索
質問応答システム
質問応答システムの構築に使用され、関連する回答を迅速に検索します。
MTEB ArguAnaデータセットで68.277の主要スコアを達成しました。
ドキュメント検索
大規模なドキュメントライブラリから関連するドキュメントを検索するために使用されます。
CQADupstackAndroidRetrievalデータセットで57.025の主要スコアを達成しました。
🚀 NV-Retriever-v1
NV-Retriever-v1は、検索タスクに特化したモデルです。以下に、MTEB ArguAnaとMTEB CQADupstackAndroidRetrievalの2つのデータセットでの評価結果を示します。
MTEB ArguAnaデータセットの評価結果
指標 | 値 |
---|---|
メインスコア (main_score) | 68.277 |
MAP@1 | 44.666 |
MAP@10 | 60.3 |
MAP@100 | 60.692 |
MAP@1000 | 60.693 |
MAP@20 | 60.645 |
MAP@3 | 56.472 |
MAP@5 | 58.78 |
MRR@1 | 45.092460881934564 |
MRR@10 | 60.493378717063074 |
MRR@100 | 60.87988588545791 |
MRR@1000 | 60.88044591502747 |
MRR@20 | 60.83224958805471 |
MRR@3 | 56.53153153153162 |
MRR@5 | 58.942626837363854 |
NAUC_MAP@1000_diff1 | 14.137909741937149 |
NAUC_MAP@1000_max | -13.946656236190021 |
NAUC_MAP@1000_std | -27.431659737602732 |
NAUC_MAP@100_diff1 | 14.136483238553824 |
NAUC_MAP@100_max | -13.946721068575075 |
NAUC_MAP@100_std | -27.43462339510713 |
NAUC_MAP@10_diff1 | 13.961240252441984 |
NAUC_MAP@10_max | -13.804526866049605 |
NAUC_MAP@10_std | -27.35573153559941 |
NAUC_MAP@1_diff1 | 16.257792463128126 |
NAUC_MAP@1_max | -16.164790771610072 |
NAUC_MAP@1_std | -27.84021734986689 |
NAUC_MAP@20_diff1 | 14.106499894575682 |
NAUC_MAP@20_max | -13.930699708027205 |
NAUC_MAP@20_std | -27.47446428876476 |
NAUC_MAP@3_diff1 | 15.018611065750246 |
NAUC_MAP@3_max | -12.659774043658842 |
NAUC_MAP@3_std | -27.186079034885598 |
NAUC_MAP@5_diff1 | 14.199306816408377 |
NAUC_MAP@5_max | -13.261282961741303 |
NAUC_MAP@5_std | -26.71739573072423 |
NAUC_MRR@1000_diff1 | 12.629073492081275 |
NAUC_MRR@1000_max | -14.666344334069448 |
NAUC_MRR@1000_std | -27.30760238816266 |
NAUC_MRR@100_diff1 | 12.627677268171094 |
NAUC_MRR@100_max | -14.66639461039424 |
NAUC_MRR@100_std | -27.310569102264846 |
NAUC_MRR@10_diff1 | 12.482407364331927 |
NAUC_MRR@10_max | -14.509649052862667 |
NAUC_MRR@10_std | -27.246235066954423 |
NAUC_MRR@1_diff1 | 15.084265144497373 |
NAUC_MRR@1_max | -16.312295398834625 |
NAUC_MRR@1_std | -27.686736137340894 |
NAUC_MRR@20_diff1 | 12.600281810712003 |
NAUC_MRR@20_max | -14.649133303237166 |
NAUC_MRR@20_std | -27.350630544847004 |
NAUC_MRR@3_diff1 | 13.081208137779557 |
NAUC_MRR@3_max | -13.91769455651833 |
NAUC_MRR@3_std | -27.42237181201488 |
NAUC_MRR@5_diff1 | 12.697412153053486 |
NAUC_MRR@5_max | -14.046815225580204 |
NAUC_MRR@5_std | -26.69417403787157 |
NAUC_NDCG@1000_diff1 | 13.984706619459738 |
NAUC_NDCG@1000_max | -13.48207980711916 |
NAUC_NDCG@1000_std | -27.16935912553381 |
NAUC_NDCG@100_diff1 | 13.951491624929446 |
NAUC_NDCG@100_max | -13.483812067015261 |
NAUC_NDCG@100_std | -27.238639718923814 |
NAUC_NDCG@10_diff1 | 13.16429886726646 |
NAUC_NDCG@10_max | -12.816570276390305 |
NAUC_NDCG@10_std | -27.13129457560619 |
NAUC_NDCG@1_diff1 | 16.257792463128126 |
NAUC_NDCG@1_max | -16.164790771610072 |
NAUC_NDCG@1_std | -27.84021734986689 |
NAUC_NDCG@20_diff1 | 13.767660163849325 |
NAUC_NDCG@20_max | -13.330392545127982 |
NAUC_NDCG@20_std | -27.655874185287637 |
NAUC_NDCG@3_diff1 | 15.379454570465107 |
NAUC_NDCG@3_max | -10.682369832384417 |
NAUC_NDCG@3_std | -26.61546503103021 |
NAUC_NDCG@5_diff1 | 13.857194107241847 |
NAUC_NDCG@5_max | -11.585582001386438 |
NAUC_NDCG@5_std | -25.60318972329879 |
NAUC_Precision@1000_diff1 | 25.196544697410012 |
NAUC_Precision@1000_max | 20.85546049013785 |
NAUC_Precision@1000_std | 56.11900085120013 |
NAUC_Precision@100_diff1 | 11.605921153386918 |
NAUC_Precision@100_max | 14.521201087528956 |
NAUC_Precision@100_std | 17.78762614096395 |
NAUC_Precision@10_diff1 | 2.9073450747110328 |
NAUC_Precision@10_max | -1.7706065742373982 |
NAUC_Precision@10_std | -25.127721917434958 |
NAUC_Precision@1_diff1 | 16.257792463128126 |
NAUC_Precision@1_max | -16.164790771610072 |
NAUC_Precision@1_std | -27.84021734986689 |
NAUC_Precision@20_diff1 | 4.945029151806525 |
NAUC_Precision@20_max | 1.299254371223885 |
NAUC_Precision@20_std | -42.34878406902393 |
NAUC_Precision@3_diff1 | 17.02535492673917 |
NAUC_Precision@3_max | -3.160620615377462 |
NAUC_Precision@3_std | -24.392959569235646 |
NAUC_Precision@5_diff1 | 12.283704585525927 |
NAUC_Precision@5_max | -2.860819740357931 |
NAUC_Precision@5_std | -19.497494992596568 |
NAUC_Recall@1000_diff1 | 25.196544697407973 |
NAUC_Recall@1000_max | 20.855460490135933 |
NAUC_Recall@1000_std | 56.119000851196496 |
NAUC_Recall@100_diff1 | 11.60592115338627 |
NAUC_Recall@100_max | 14.5212010875248 |
NAUC_Recall@100_std | 17.787626140957425 |
NAUC_Recall@10_diff1 | 2.9073450747112304 |
NAUC_Recall@10_max | -1.7706065742371515 |
NAUC_Recall@10_std | -25.12772191743481 |
NAUC_Recall@1_diff1 | 16.257792463128126 |
NAUC_Recall@1_max | -16.164790771610072 |
NAUC_Recall@1_std | -27.84021734986689 |
NAUC_Recall@20_diff1 | 4.9450291518064935 |
NAUC_Recall@20_max | 1.2992543712237186 |
NAUC_Recall@20_std | -42.34878406902303 |
NAUC_Recall@3_diff1 | 17.025354926739237 |
NAUC_Recall@3_max | -3.1606206153775016 |
NAUC_Recall@3_std | -24.39295956923558 |
NAUC_Recall@5_diff1 | 12.283704585525939 |
NAUC_Recall@5_max | -2.8608197403578512 |
NAUC_Recall@5_std | -19.497494992596575 |
NDCG@1 | 44.666 |
NDCG@10 | 68.277 |
NDCG@100 | 69.78 |
NDCG@1000 | 69.78999999999999 |
NDCG@20 | 69.464 |
NDCG@3 | 60.462 |
NDCG@5 | 64.651 |
Precision@1 | 44.666 |
Precision@10 | 9.339 |
Precision@100 | 0.996 |
Precision@1000 | 0.1 |
Precision@20 | 4.897 |
Precision@3 | 24.016000000000002 |
Precision@5 | 16.458000000000002 |
Recall@1 | 44.666 |
Recall@10 | 93.38499999999999 |
Recall@100 | 99.57300000000001 |
Recall@1000 | 99.644 |
Recall@20 | 97.937 |
Recall@3 | 72.048 |
Recall@5 | 82.28999999999999 |
MTEB CQADupstackAndroidRetrievalデータセットの評価結果
指標 | 値 |
---|---|
メインスコア (main_score) | 57.025000000000006 |
MAP@1 | 35.67 |
MAP@10 | 49.816 |
MAP@100 | 51.465 |
MAP@1000 | 51.559 |
MAP@20 | 50.843 |
MAP@3 | 45.462 |
MAP@5 | 47.789 |
MRR@1 | 44.77825464949928 |
MRR@10 | 55.787576356245886 |
MRR@100 | 56.4488799265231 |
MRR@1000 | 56.47353697784773 |
MRR@20 | 56.21107253216036 |
MRR@3 | 52.885073915116834 |
MRR@5 | 54.58035288507389 |
NAUC_MAP@1000_diff1 | 50.45823101819382 |
NAUC_MAP@1000_max | 36.49053295534483 |
NAUC_MAP@1000_std | -18.526304321886187 |
NAUC_MAP@100_diff1 | 50.4260834410578 |
NAUC_MAP@100_max | 36.5085073099934 |
NAUC_MAP@100_std | -18.46644794935817 |
NAUC_MAP@10_diff1 | 50.89883450942742 |
NAUC_MAP@10_max | 36.04067774200049 |
NAUC_MAP@10_std | -20.056347095828695 |
NAUC_MAP@1_diff1 | 56.834567406767775 |
NAUC_MAP@1_max | 32.806861016490686 |
NAUC_MAP@1_std | -17.50758527738866 |
NAUC_MAP@20_diff1 | 50.5042164434519 |
NAUC_MAP@20_max | 36.50186920758872 |
NAUC_MAP@20_std | -18.739559098645316 |
NAUC_MAP@3_diff1 | 51.47192911647498 |
NAUC_MAP@3_max | 35.30704707609017 |
NAUC_MAP@3_std | -20.29632792705977 |
NAUC_MAP@5_diff1 | 51.12306422908822 |
NAUC_MAP@5_max | 35.89975376917192 |
NAUC_MAP@5_std | -19.828384476366086 |
NAUC_MRR@1000_diff1 | 48.849919708933356 |
NAUC_MRR@1000_max | 37.551368642516984 |
NAUC_MRR@1000_std | -17.829333495571873 |
NAUC_MRR@100_diff1 | 48.84124005822968 |
NAUC_MRR@100_max | 37.55507214788527 |
NAUC_MRR@100_std | -17.829902708031735 |
NAUC_MRR@10_diff1 | 48.75998469903627 |
NAUC_MRR@10_max | 37.38578492482243 |
NAUC_MRR@10_std | -18.49027309110136 |
NAUC_MRR@1_diff1 | 52.82147548271261 |
NAUC_MRR@1_max | 38.52107406488729 |
NAUC_MRR@1_std | -15.557810119211657 |
NAUC_MRR@20_diff1 | 48.786516207985585 |
NAUC_MRR@20_max | 37.53134866494839 |
NAUC_MRR@20_std | -17.78055242023104 |
NAUC_MRR@3_diff1 | 48.72848733815437 |
NAUC_MRR@3_max | 37.62564116429598 |
NAUC_MRR@3_std | -18.63098278761354 |
NAUC_MRR@5_diff1 | 48.67198763487669 |
NAUC_MRR@5_max | 37.46200111234106 |
NAUC_MRR@5_std | -18.592288612712576 |
NAUC_NDCG@1000_diff1 | 48.75201809702225 |
NAUC_NDCG@1000_max | 37.04967809462886 |
NAUC_NDCG@1000_std | -16.948540945875216 |
NAUC_NDCG@100_diff1 | 48.213857924243804 |
NAUC_NDCG@100_max | 36.99860703887876 |
NAUC_NDCG@100_std | -16.420746045271017 |
NAUC_NDCG@10_diff1 | 48.7590345342662 |
NAUC_NDCG@10_max | 36.087304891668495 |
NAUC_NDCG@10_std | -20.677784655001727 |
NAUC_NDCG@1_diff1 | 52.82147548271261 |
NAUC_NDCG@1_max | 38.52107406488729 |
NAUC_NDCG@1_std | -15.557810119211657 |
NAUC_NDCG@20_diff1 | 48.119759046742004 |
NAUC_NDCG@20_max | 36.91858601052183 |
NAUC_NDCG@20_std | -17.315588991460316 |
NAUC_NDCG@3_diff1 | 48.35879771694856 |
NAUC_NDCG@3_max | 36.59333419427929 |
NAUC_NDCG@3_std | -19.646763729930917 |
NAUC_NDCG@5_diff1 | 48.73702053100838 |
NAUC_NDCG@5_max | 36.2032422359128 |
NAUC_NDCG@5_std | -19.81761218645642 |
NAUC_Precision@1000_diff1 | -19.23879401783259 |
NAUC_Precision@1000_max | -10.334669548312661 |
NAUC_Precision@1000_std | 1.8528999887213935 |
NAUC_Precision@100_diff1 | -17.061064047641576 |
NAUC_Precision@100_max | -2.2318557604173557 |
NAUC_Precision@100_std | 9.453864069155783 |
NAUC_Precision@10_diff1 | -0.0250981142012463 |
NAUC_Precision@10_max | 15.000297351883034 |
NAUC_Precision@10_std | -1.6209044879293661 |
NAUC_Precision@1_diff1 | 52.82147548271261 |
NAUC_Precision@1_max | 38.52107406488729 |
NAUC_Precision@1_std | -15.557810119211657 |
NAUC_Precision@20_diff1 | -9.566950286920978 |
NAUC_Precision@20_max | 9.865702753901365 |
NAUC_Precision@20_std | 8.87854086185741 |
NAUC_Precision@3_diff1 | 19.978926078471915 |
NAUC_Precision@3_max | (原文未完整) |
Jina Embeddings V3
Jina Embeddings V3 は100以上の言語をサポートする多言語文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
MS Marcoパッセージランキングタスクで訓練されたクロスエンコーダモデル、情報検索におけるクエリ-パッセージ関連性スコアリング用
テキスト埋め込み 英語
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
蒸留技術に基づくスパース検索モデルで、OpenSearch向けに最適化されており、推論不要のドキュメントエンコーディングをサポートし、検索関連性と効率性においてV1版を上回ります
テキスト埋め込み
Transformers 英語

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
PubMedBERTに基づく生物医学エンティティ表現モデルで、自己アライメント事前学習により意味関係の捕捉を最適化します。
テキスト埋め込み 英語
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Largeは強力なセンテンストランスフォーマーモデルで、文の類似度とテキスト埋め込みタスクに特化しており、複数のベンチマークテストで優れた性能を発揮します。
テキスト埋め込み 英語
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 は英語の文章変換モデルで、文章類似度タスクに特化しており、複数のテキスト埋め込みベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base は50以上の言語をサポートする多言語文埋め込みモデルで、文類似度計算などのタスクに適しています。
テキスト埋め込み
Transformers 複数言語対応

G
Alibaba-NLP
1.2M
246
Polybert
polyBERTは、完全に機械駆動の超高速ポリマー情報学を実現するための化学言語モデルです。PSMILES文字列を600次元の密なフィンガープリントにマッピングし、ポリマー化学構造を数値形式で表現します。
テキスト埋め込み
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
トルコ語BERTベースの文埋め込みモデルで、意味的類似性タスクに最適化
テキスト埋め込み
Transformers その他

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
BAAI/bge-small-en-v1.5モデルを微調整したテキスト埋め込みモデルで、MEDIデータセットとMTEB分類タスクデータセットで訓練され、検索タスクのクエリエンコーディング能力を最適化しました。
テキスト埋め込み
Safetensors 英語
G
avsolatorio
945.68k
29
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98