# 信息檢索增強

Ruri V3 Reranker 310m Preview
Apache-2.0
這是一個日語通用重排序模型的預覽版本,基於cl-nagoya/ruri-v3-pt-310m基礎模型訓練,專門用於日語文本相關性排序任務。
文本嵌入 日語
R
cl-nagoya
79
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
這是一個基於MiniLM-L12-H384-uncased微調的交叉編碼器模型,用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
1,019
3
Rank1 3b
MIT
rank1-3b是一個基於Qwen2.5-3B訓練的信息檢索重排序模型,通過生成推理鏈進行相關性判斷
大型語言模型 Transformers 英語
R
jhu-clsp
103
0
Rank1 7b
MIT
rank1-7b是一個基於Qwen2.5-7B訓練的70億參數重排序模型,通過生成推理鏈進行相關性判斷
大型語言模型 Transformers 英語
R
jhu-clsp
661
1
Modernbert Large Msmarco Bpr
這是一個從ModernBERT-large微調的sentence-transformers模型,用於將句子和段落映射到1024維的密集向量空間,支持語義文本相似性、語義搜索等任務。
文本嵌入
M
BlackBeenie
21
2
Mxbai Rerank Base V1
Apache-2.0
這是一個基於Transformers架構的重新排序(Reranker)模型,主要用於信息檢索和搜索結果優化任務。
Transformers 英語
M
khoj-ai
81
1
Bge Reranker Large Q4 K M GGUF
MIT
該模型是基於BAAI/bge-reranker-large轉換而來的GGUF格式模型,用於重排序任務,支持中英文。
文本嵌入 支持多種語言
B
DrRos
164
1
Cross Encoder Binary Topic Classification
這是一個基於Transformer架構的交叉編碼器模型,主要用於文本排序任務。
文本嵌入 Transformers
C
enochlev
28
0
Polish Reranker Roberta V2
基於sdadas/polish-roberta-large-v2改進的波蘭語重排序模型,採用RankNet損失函數訓練,支持Flash Attention 2加速
文本嵌入 Transformers 其他
P
sdadas
961
2
Serafim 100m Portuguese Pt Sentence Encoder Ir
MIT
這是一個基於sentence-transformers的葡萄牙語句子編碼器,可將文本映射到768維向量空間,適用於語義搜索和文本聚類等任務。
文本嵌入 Transformers
S
PORTULAN
4,040
1
T5 Query Reformulation RL
Apache-2.0
這是一個專為搜索查詢改寫設計的生成模型,採用序列到序列架構和強化學習框架來生成多樣化且相關的查詢改寫。
大型語言模型 Transformers 支持多種語言
T
prhegde
366
6
Followir 7B
Apache-2.0
FollowIR-7B 是一個基於 Mistral-7B-Instruct-v0.2 微調的指令檢索模型,專注於檢索任務中的重排序功能。
大型語言模型 Transformers 英語
F
jhu-clsp
39
15
Splade V3
SPLADE-v3是最新一代SPLADE模型系列,基於SPLADE++SelfDistil開發,採用KL散度與MarginMSE混合訓練方式,用於信息檢索任務。
文本嵌入 Transformers 英語
S
naver
84.86k
40
Anita
Apache-2.0
專為意大利語問答任務設計的句子轉換器模型,能夠解析和分析意大利語文本,預測最可能包含答案的上下文。
問答系統 Transformers 其他
A
DeepMount00
134
26
Crossencoder Mminilmv2 L12 Mmarcofr
MIT
這是一個法語交叉編碼器模型,用於對問題-段落對進行相關性評分,適用於語義搜索的重排序階段。
文本嵌入 法語
C
antoinelouis
155
0
Sentece Embeddings BETO
基於sentence-transformers的西班牙語BERT模型,用於生成句子和段落的768維向量表示
文本嵌入 Transformers
S
espejelomar
75
1
Msmarco Distilbert Base V4 Feature Extraction Pipeline
Apache-2.0
這是一個基於DistilBERT的句子轉換器模型,專門用於特徵提取和句子相似度計算。
文本嵌入 Transformers
M
questgen
36
0
Splade Cocondenser Ensembledistil
用於段落檢索的SPLADE模型,通過知識蒸餾提升稀疏神經信息檢索效果
文本嵌入 Transformers 英語
S
naver
606.73k
42
Splade Cocondenser Selfdistil
用於段落檢索的SPLADE模型,通過稀疏潛在文檔擴展和知識蒸餾技術提升檢索效果
文本嵌入 Transformers 英語
S
naver
16.11k
10
Doc2query T5 Large Msmarco
Doc2Query 是一個用於文檔檢索的模型,能夠將文檔轉換為查詢,以改進信息檢索的效果。
大型語言模型
D
castorini
15
1
Dense Encoder Msmarco Distilbert Word2vec256k MLM 445k Emb Updated
基於MS MARCO數據集訓練的句子嵌入模型,使用word2vec初始化的256k詞彙表和DistilBERT架構,適用於語義搜索和句子相似度任務
文本嵌入 Transformers
D
vocab-transformers
29
0
Monot5 Large Msmarco
該模型是基於T5-large架構的重新排序器,在MS MARCO段落數據集上進行了10萬步(即10個週期)的微調,主要用於文檔和段落的重排序任務。
大型語言模型
M
castorini
254
3
Monot5 Base Med Msmarco
基於T5-base架構的文檔重新排序模型,先後在MS MARCO和醫學領域MedMARCO數據集上微調,優化檢索結果的相關性排序。
大型語言模型
M
castorini
153
1
Bert Base Mdoc Bm25
Apache-2.0
這是一個針對MS MARCO文檔數據集上的BM25檢索器訓練的文本重排序模型,主要用於提升文檔檢索的排序效果。
文本嵌入 英語
B
Luyu
3,668
1
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase