# 高精度排序

Finetuned Cross Encoder L6 V2
這是一個基於cross-encoder/ms-marco-MiniLM-L6-v2微調的交叉編碼器模型,主要用於文本重排序和語義搜索任務。
文本嵌入
F
CharlesPing
22
1
Rank1 14b
MIT
rank1是一個140億參數的推理重排序模型,通過生成顯式推理鏈再進行相關性判斷,提高了信息檢索任務的性能。
大型語言模型 Transformers 英語
R
jhu-clsp
23
0
SFR Embedding Code 400M R
Salesforce研究的SFR-嵌入模型,適用於多語言和多任務的代碼及文本檢索,在多個代碼檢索任務中表現優異。
文本嵌入 Transformers 其他
S
Salesforce
8,171
29
Splade V3 Doc
SPLADE-v3-Doc 是 SPLADE 模型的文檔版本,專注於文檔端推理,適用於信息檢索等場景。
文本嵌入 Transformers 英語
S
naver
2,223
1
Reward Model Deberta V3 Large
MIT
該獎勵模型經過訓練,能夠預測在給定問題下人類評判者會認為哪個生成的答案更好。
大型語言模型 Transformers 英語
R
OpenAssistant
796
23
Crossencoder Camembert Large
Apache-2.0
這是一個基於CamemBERT的法語句子相似度計算模型,用於預測兩個句子之間的語義相似度分值。
文本嵌入 Transformers 法語
C
dangvantuan
167
16
Msmarco MiniLM L6 En De V1
Apache-2.0
這是一個適用於英德雙語段落重排序任務的跨語言交叉編碼器模型,基於MS Marco段落排序任務訓練而成。
文本嵌入 Transformers 支持多種語言
M
cross-encoder
2,784
12
Quora Distilroberta Base
Apache-2.0
基於Quora重複問題數據集訓練的交叉編碼器模型,用於預測兩個問題是否為重複問題的概率
文本分類 英語
Q
cross-encoder
28.01k
1
Msmarco MiniLM L12 En De V1
Apache-2.0
基於MS Marco段落排序任務訓練的英德跨語言交叉編碼器模型,適用於信息檢索場景的段落重排序。
文本嵌入 Transformers 支持多種語言
M
cross-encoder
19.62k
5
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase