# 情報検索強化

Ruri V3 Reranker 310m Preview
Apache-2.0
これは日本語汎用再ランキングモデルのプレビュー版で、cl-nagoya/ruri-v3-pt-310mベースモデルを基に訓練され、日本語テキスト関連性ランキングタスクに特化しています。
テキスト埋め込み 日本語
R
cl-nagoya
79
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
これはMiniLM-L12-H384-uncasedをファインチューニングしたクロスエンコーダモデルで、テキスト再ランキングと意味検索タスクに使用されます。
テキスト埋め込み 英語
R
tomaarsen
1,019
3
Modernbert Large Msmarco Bpr
これはModernBERT-largeからファインチューニングされたsentence-transformersモデルで、文章や段落を1024次元の密なベクトル空間にマッピングし、意味的テキスト類似性や意味検索などのタスクをサポートします。
テキスト埋め込み
M
BlackBeenie
21
2
Mxbai Rerank Base V1
Apache-2.0
これはTransformersアーキテクチャに基づく再ランキング(Reranker)モデルで、主に情報検索と検索結果最適化タスクに使用されます。
Transformers 英語
M
khoj-ai
81
1
Bge Reranker Large Q4 K M GGUF
MIT
このモデルはBAAI/bge-reranker-largeから変換されたGGUF形式モデルで、リランキングタスクに使用され、中国語と英語をサポートします。
テキスト埋め込み 複数言語対応
B
DrRos
164
1
Cross Encoder Binary Topic Classification
これはTransformerアーキテクチャに基づくクロスエンコーダーモデルで、主にテキストランキングタスクに使用されます。
テキスト埋め込み Transformers
C
enochlev
28
0
Polish Reranker Roberta V2
sdadas/polish-roberta-large-v2を改良したポーランド語再ランキングモデル、RankNet損失関数で訓練、Flash Attention 2高速化対応
テキスト埋め込み Transformers その他
P
sdadas
961
2
Splade V3
SPLADE-v3は最新世代のSPLADEモデルシリーズで、SPLADE++SelfDistilをベースに開発され、KLダイバージェンスとMarginMSEの混合トレーニング方式を採用し、情報検索タスクに使用されます。
テキスト埋め込み Transformers 英語
S
naver
84.86k
40
Crossencoder Mminilmv2 L12 Mmarcofr
MIT
これはフランス語のクロスエンコーダーモデルで、質問と段落のペアの関連性スコアリングに使用され、意味検索の再ランキング段階に適しています。
テキスト埋め込み フランス語
C
antoinelouis
155
0
Sentece Embeddings BETO
sentence-transformersベースのスペイン語BERTモデルで、文や段落の768次元ベクトル表現を生成
テキスト埋め込み Transformers
S
espejelomar
75
1
Msmarco Distilbert Base V4 Feature Extraction Pipeline
Apache-2.0
これはDistilBERTベースのセンテンストランスフォーマーモデルで、特徴抽出と文の類似度計算に特化しています。
テキスト埋め込み Transformers
M
questgen
36
0
Splade Cocondenser Ensembledistil
段落検索用SPLADEモデル、知識蒸留によりスパースニューラル情報検索効果を向上
テキスト埋め込み Transformers 英語
S
naver
606.73k
42
Splade Cocondenser Selfdistil
パッセージ検索のためのSPLADEモデル、スパース潜在文書拡張と知識蒸留技術により検索効果を向上
テキスト埋め込み Transformers 英語
S
naver
16.11k
10
Dense Encoder Msmarco Distilbert Word2vec256k MLM 445k Emb Updated
MS MARCOデータセットで訓練された文埋め込みモデル、word2vecで初期化された256k語彙とDistilBERTアーキテクチャを使用、意味検索や文類似度タスクに適しています
テキスト埋め込み Transformers
D
vocab-transformers
29
0
Monot5 Large Msmarco
このモデルはT5-largeアーキテクチャに基づく再ランキングモデルで、MS MARCO段落データセットで10万ステップ(10エポック)のファインチューニングが行われており、主にドキュメントや段落の再ランキングタスクに使用されます。
大規模言語モデル
M
castorini
254
3
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase