# 信息檢索

Chonky Modernbert Large 1
MIT
Chonky是一款能夠智能地將文本分割成有意義的語義塊的Transformer模型,適用於RAG系統。
序列標註 Transformers 英語
C
mirth
54
2
Set Encoder Novelty Base
Apache-2.0
Set-Encoder是一種專為高效且具有置換不變性的段落重排序設計的跨編碼器架構,特別適用於新穎性感知重排序任務。
文本嵌入
S
webis
14
0
Lightblue Reranker 0.5 Bincont Filt Gguf
這是一個文本排序模型,用於對文本進行相關性排序。
文本嵌入
L
RichardErkhov
2,054
0
Rank1 0.5b
MIT
rank1是一款基於Qwen2.5-0.5B訓練的信息檢索重排序模型,通過生成推理鏈提升相關性判斷準確性。
大型語言模型 Transformers 英語
R
jhu-clsp
21
0
Set Encoder Base
Apache-2.0
Set-Encoder是一種專為高效且具有置換不變性的段落重排設計的交叉編碼器架構。
文本嵌入
S
webis
295
1
Crossencoder Mdebertav3 Base Mmarcofr
MIT
這是一個基於mDeBERTa-v3-base的法語交叉編碼器模型,專門用於段落重排序任務,在mMARCO-fr數據集上表現出色。
文本嵌入 法語
C
antoinelouis
111
1
Robbert 2023 Dutch Base Cross Encoder
一個基於transformers庫的句子嵌入模型,用於生成句子的向量表示,支持文本排序任務。
文本嵌入 Transformers
R
NetherlandsForensicInstitute
118
2
Splade V3 Doc
SPLADE-v3-Doc 是 SPLADE 模型的文檔版本,專注於文檔端推理,適用於信息檢索等場景。
文本嵌入 Transformers 英語
S
naver
2,223
1
K Finance Sentence Transformer
這是一個基於sentence-transformers的句子嵌入模型,可將文本映射到768維向量空間,適用於語義搜索和聚類任務。
文本嵌入 Transformers
K
ohsuz
160
1
Polish Reranker Base Ranknet
Apache-2.0
基於RankNet損失函數訓練的波蘭語文本排序模型,適用於信息檢索任務
文本嵌入 Transformers 其他
P
sdadas
332
1
Gte Large Onnx
Apache-2.0
GTE-Large是一個基於ONNX移植的文本嵌入模型,適用於文本分類和相似性搜索任務。
文本嵌入 Transformers
G
Qdrant
597
2
Mmlw Retrieval Roberta Base
Apache-2.0
MMLW(我必須得到更好的消息)是波蘭語的神經文本編碼器,針對信息檢索任務進行了優化,能夠將查詢和段落轉換為768維向量。
文本嵌入 Transformers 其他
M
sdadas
408
1
Gte Tiny
GTE Tiny 是一個小型通用文本嵌入模型,適用於多種自然語言處理任務。
文本嵌入 Transformers
G
TaylorAI
74.46k
138
Crossencoder Electra Base Mmarcofr
MIT
這是一個基於ELECTRA架構的法語交叉編碼器模型,專門用於語義搜索中的段落重排序任務。
文本嵌入 法語
C
antoinelouis
18
0
Dragon Plus Context Encoder
DRAGON+ 是一個基於BERT架構的密集檢索模型,採用非對稱雙編碼器架構,適用於文本檢索任務。
文本嵌入 Transformers
D
facebook
4,396
39
Raw 2 No 1 Test 2 New.model
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於句子相似度計算、語義搜索等任務。
文本嵌入 Transformers
R
Wheatley961
13
0
Bertje Visio Retriever
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於句子相似度計算、語義搜索等任務。
文本嵌入 Transformers
B
GeniusVoice
14
0
July25test
這是一個基於sentence-transformers的句子嵌入模型,能夠將文本轉換為768維的向量表示,適用於句子相似度計算和語義搜索等任務。
文本嵌入 Transformers
J
NimaBoscarino
36
0
Ukhushn
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入 Transformers
U
Ukhushn
35
0
Healthcare 27.03.2021 27.03.2022 Redditflow
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維密集向量空間,適用於句子相似度計算、語義搜索等任務。
文本嵌入 Transformers
H
NFflow
31
0
English Phrases Bible
Apache-2.0
基於DistilBert TAS-B模型的句子嵌入模型,針對語義搜索任務優化,可將文本映射到768維向量空間
文本嵌入 Transformers
E
iamholmes
28
0
Nfcorpus Tsdae Msmarco Distilbert Gpl
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於句子相似度計算、語義搜索等任務。
文本嵌入 Transformers
N
GPL
31
0
Climate Fever Tsdae Msmarco Distilbert Gpl
這是一個基於sentence-transformers的句子嵌入模型,可將文本映射到768維向量空間,適用於語義搜索和文本相似度計算等任務。
文本嵌入 Transformers
C
GPL
31
0
Webis Touche2020 Distilbert Tas B Gpl Self Miner
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於句子相似度計算和語義搜索等任務。
文本嵌入 Transformers
W
GPL
31
0
Dpr Question Encoder Bert Uncased L 2 H 128 A 2
Apache-2.0
基於BERT架構的DPR問題編碼器模型,用於密集段落檢索任務
文本嵌入 Transformers
D
nlpconnect
21
0
Contriever Msmarco
基於Contriever預訓練模型的微調版本,專為密集信息檢索任務優化,採用對比學習方法訓練
文本嵌入 Transformers
C
facebook
24.08k
27
Distilbert Base Mean Pooling
這是一個基於DistilBERT的句子嵌入模型,能夠將文本轉換為768維的向量表示,適用於句子相似度計算和語義搜索任務。
文本嵌入 Transformers
D
jgammack
2,340
5
TILDE
TILDE是一個基於BERT架構的模型,主要用於文本檢索和語言建模任務。
大型語言模型 Transformers
T
ielab
134
3
Msmarco MiniLM L6 En De V1
Apache-2.0
這是一個適用於英德雙語段落重排序任務的跨語言交叉編碼器模型,基於MS Marco段落排序任務訓練而成。
文本嵌入 Transformers 支持多種語言
M
cross-encoder
2,784
12
Msmarco MiniLM L12 En De V1
Apache-2.0
基於MS Marco段落排序任務訓練的英德跨語言交叉編碼器模型,適用於信息檢索場景的段落重排序。
文本嵌入 Transformers 支持多種語言
M
cross-encoder
19.62k
5
Bioasq 1m Tsdae Msmarco Distilbert Gpl
這是一個基於sentence-transformers的句子嵌入模型,能夠將文本轉換為768維的向量表示,適用於語義搜索和文本相似度計算等任務。
文本嵌入 Transformers
B
GPL
31
0
Mt5 Base Finetuned Tydiqa Xqa
該模型是基於谷歌mT5-base在TyDi QA數據集上微調的多語言問答模型,支持101種語言的問答任務。
問答系統 Transformers 其他
M
Narrativa
368
6
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase