Finetuned Cross Encoder L6 V2
這是一個基於cross-encoder/ms-marco-MiniLM-L6-v2微調的交叉編碼器模型,主要用於文本重排序和語義搜索任務。
文本嵌入
F
CharlesPing
22
1
Rank1 14b
MIT
rank1是一個140億參數的推理重排序模型,通過生成顯式推理鏈再進行相關性判斷,提高了信息檢索任務的性能。
大型語言模型
Transformers 英語

R
jhu-clsp
23
0
SFR Embedding Code 400M R
Salesforce研究的SFR-嵌入模型,適用於多語言和多任務的代碼及文本檢索,在多個代碼檢索任務中表現優異。
文本嵌入
Transformers 其他

S
Salesforce
8,171
29
Splade V3 Doc
SPLADE-v3-Doc 是 SPLADE 模型的文檔版本,專注於文檔端推理,適用於信息檢索等場景。
文本嵌入
Transformers 英語

S
naver
2,223
1
Reward Model Deberta V3 Large
MIT
該獎勵模型經過訓練,能夠預測在給定問題下人類評判者會認為哪個生成的答案更好。
大型語言模型
Transformers 英語

R
OpenAssistant
796
23
Crossencoder Camembert Large
Apache-2.0
這是一個基於CamemBERT的法語句子相似度計算模型,用於預測兩個句子之間的語義相似度分值。
文本嵌入
Transformers 法語

C
dangvantuan
167
16
Msmarco MiniLM L6 En De V1
Apache-2.0
這是一個適用於英德雙語段落重排序任務的跨語言交叉編碼器模型,基於MS Marco段落排序任務訓練而成。
文本嵌入
Transformers 支持多種語言

M
cross-encoder
2,784
12
Quora Distilroberta Base
Apache-2.0
基於Quora重複問題數據集訓練的交叉編碼器模型,用於預測兩個問題是否為重複問題的概率
文本分類 英語
Q
cross-encoder
28.01k
1
Msmarco MiniLM L12 En De V1
Apache-2.0
基於MS Marco段落排序任務訓練的英德跨語言交叉編碼器模型,適用於信息檢索場景的段落重排序。
文本嵌入
Transformers 支持多種語言

M
cross-encoder
19.62k
5
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98