# 情報検索の強化

Rank1 3b
MIT
rank1-3bはQwen2.5-3Bをベースに訓練された情報検索の再順位付けモデルで、推論チェーンを生成して関連性を判断します
大規模言語モデル Transformers 英語
R
jhu-clsp
103
0
Rank1 7b
MIT
rank1-7bはQwen2.5-7Bをベースに訓練された70億パラメータの再ランキングモデルで、推論チェーンを生成して関連性を判断します
大規模言語モデル Transformers 英語
R
jhu-clsp
661
1
Serafim 100m Portuguese Pt Sentence Encoder Ir
MIT
これはsentence-transformersに基づくポルトガル語文エンコーダーで、テキストを768次元のベクトル空間にマッピングでき、意味検索やテキストクラスタリングなどのタスクに適しています。
テキスト埋め込み Transformers
S
PORTULAN
4,040
1
T5 Query Reformulation RL
Apache-2.0
これは検索クエリの書き換えに特化した生成モデルで、シーケンス-to-シーケンスアーキテクチャと強化学習フレームワークを用いて、多様で関連性のあるクエリ書き換えを生成します。
大規模言語モデル Transformers 複数言語対応
T
prhegde
366
6
Followir 7B
Apache-2.0
FollowIR-7B は Mistral-7B-Instruct-v0.2 を基にファインチューニングされた命令検索モデルで、検索タスクにおける再ランキング機能に特化しています。
大規模言語モデル Transformers 英語
F
jhu-clsp
39
15
Anita
Apache-2.0
イタリア語の質問と回答タスク用に特別に設計された文変換モデルで、イタリア語のテキストを解析し、最も答えが含まれる可能性のある文脈を予測できます。
質問応答システム Transformers その他
A
DeepMount00
134
26
Doc2query T5 Large Msmarco
Doc2Queryは文書検索に使用されるモデルで、文書をクエリに変換して情報検索の効果を改善することができます。
大規模言語モデル
D
castorini
15
1
Monot5 Base Med Msmarco
T5-baseアーキテクチャに基づく文書再ランキングモデルで、MS MARCOと医学分野のMedMARCOデータセットで順次微調整され、検索結果の関連性ランキングを最適化します。
大規模言語モデル
M
castorini
153
1
Bert Base Mdoc Bm25
Apache-2.0
これはMS MARCO文書データセット上のBM25検索器を対象に訓練されたテキスト再ランキングモデルで、主に文書検索のソート結果を向上させるために使用されます。
テキスト埋め込み 英語
B
Luyu
3,668
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase