# 情報検索の最適化

Finetuned Cross Encoder L6 V2
これはcross-encoder/ms-marco-MiniLM-L6-v2を微調整したクロスエンコーダモデルで、主にテキストの再並べ替えと意味的検索タスクに使用されます。
テキスト埋め込み
F
CharlesPing
22
1
Reranker ModernBERT Large Gooaq Bce
Apache-2.0
これは、ModernBERT-largeから微調整されたクロスエンコーダモデルで、テキストペアのスコアを計算するために使用され、テキストの再ランキングと意味的検索タスクに適しています。
テキスト埋め込み 英語
R
tomaarsen
596
5
Arabic Reranker V1
これはBERTアーキテクチャに基づくアラビア語再ランキングモデルで、アラビア語テキストの関連性ランキングタスクに最適化されています
テキスト埋め込み アラビア語
A
oddadmix
21
1
Llm2vec Meta Llama 31 8B Instruct Mntp
MIT
LLM2Vecは、デコーダ専用の大規模言語モデルをテキストエンコーダに変換するシンプルな方法で、双方向アテンション、マスクされた次単語予測、教師なしコントラスティブ学習を有効にすることで実現します。
テキスト埋め込み Transformers 英語
L
McGill-NLP
386
2
Phoranker
Apache-2.0
PhoRankerは、ベトナム語テキストのソートに使用されるクロスエンコーダーモデルで、ベトナム語テキストを効率的に分類およびソートすることができます。
テキスト埋め込み Transformers その他
P
itdainb
4,063
15
Splade V3 Lexical
SPLADE-v3-LexicalはSPLADEモデルの語彙重み付けバージョンで、情報検索タスクに特化し、クエリ側では拡張を行いません。
テキスト埋め込み Transformers 英語
S
naver
1,184
2
Msmarco Distilbert Base Tas B Mmarco Pt 100k
これはDistilBERTに基づくポルトガル語文変換モデルで、文の類似度と意味的検索タスクに特化しています。
テキスト埋め込み Transformers その他
M
mpjan
44
4
Msmarco Distilbert Word2vec256k MLM 785k Emb Updated
このモデルはDistilBERTアーキテクチャに基づいており、語彙表のサイズは256kで、word2vecで初期化され、MS MARCOコーパスで785kステップのMLM学習が行われました。
大規模言語モデル Transformers
M
vocab-transformers
17
0
Monot5 Base Msmarco
T5-baseアーキテクチャに基づく再ランキングモデルで、MS MARCOパラグラフデータセットで10万ステップ微調整され、情報検索におけるドキュメントの再ランキングタスクに適しています。
大規模言語モデル
M
castorini
7,405
11
Msmarco Distilbert Word2vec256k MLM 230k
このモデルはDistilBERTアーキテクチャに基づく事前学習言語モデルで、word2vecで初期化された256kの語彙表を使用し、MS MARCOコーパスでマスク言語モデル(MLM)学習を行っています。
大規模言語モデル Transformers
M
vocab-transformers
16
0
Monot5 3b Msmarco
T5-3Bアーキテクチャに基づくリランカーで、MS MARCOパッセージデータセットで10万ステップ(10エポック)ファインチューニングされ、文書ランキングタスクに使用されます。
大規模言語モデル Transformers
M
castorini
737
0
SGPT 2.7B Weightedmean Msmarco Specb Bitfit
SGPT-2.7Bは加重平均法に基づく文変換モデルで、文の類似度タスクに特化しており、MSMARCOデータセットで訓練され、BitFit技術が適用されています。
テキスト埋め込み
S
Muennighoff
85
3
Bert Base Msmarco
BERT-Baseアーキテクチャに基づき、MS MARCO段落分類タスクで微調整されたバージョンで、文書再ランキングタスクに適しています。
大規模言語モデル
B
Capreolus
64
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase