Qwen3 Reranker 4B W4A16 G128
Apache-2.0
這是對Qwen/Qwen3-Reranker-4B進行GPTQ量化的成果,顯著降低了顯存使用量
大型語言模型
Transformers

Q
boboliu
157
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
這是經過GPTQ量化的Qwen3-Embedding-4B模型,顯存使用量顯著降低,性能損失較小。
文本嵌入
Q
boboliu
141
1
Qwen.qwen3 Reranker 0.6B GGUF
Qwen3-Reranker-0.6B的量化版本,致力於讓知識為每個人所用。
大型語言模型
Q
DevQuasar
1,481
3
Finetuned Cross Encoder L6 V2
這是一個基於cross-encoder/ms-marco-MiniLM-L6-v2微調的交叉編碼器模型,主要用於文本重排序和語義搜索任務。
文本嵌入
F
CharlesPing
22
1
Bge Reranker Ft
這是一個從BAAI/bge-reranker-base微調而來的交叉編碼器模型,用於文本對評分,適用於文本重排序和語義搜索任務。
文本嵌入
B
foochun
70
0
Reranker Gte Multilingual Base Msmarco Bce Ep 2
基於sentence-transformers庫在msmarco數據集上訓練的交叉編碼器模型,用於文本重排序和語義搜索
文本嵌入 支持多種語言
R
skfrost19
28
0
Reranker MiniLM L6 H384 Uncased Gooaq 5 Epoch 1995000
Apache-2.0
這是一個從nreimers/MiniLM-L6-H384-uncased微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
ayushexel
24
0
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
483
2
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
這是一個從ModernBERT-base微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
89
4
Mixedbread Ai.mxbai Rerank Large V2 GGUF
mxbai-rerank-large-v2 是一個用於文本排序的基礎模型,專注於提升搜索結果的相關性和準確性。
文本嵌入
M
DevQuasar
938
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
這是一個基於MiniLM-L12-H384-uncased微調的交叉編碼器模型,用於文本重排序和語義搜索任務。
文本嵌入 英語
R
tomaarsen
1,019
3
Lightblue Reranker 0.5 Cont Gguf
這是一個文本排序模型,用於對文本進行重新排序和評分。
文本嵌入
L
RichardErkhov
1,986
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Newer Small Gguf
基於Qwen2.5架構的0.5億參數文本排序模型,適用於信息檢索和文檔排序任務
大型語言模型
J
RichardErkhov
2,117
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker New Small Gguf
基於Qwen2.5架構的0.5B參數規模的文本排序模型,適用於重排序任務。
大型語言模型
J
RichardErkhov
2,454
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Gguf
基於Qwen2.5架構的0.5B參數文本排序模型,使用Unsloth和TRL庫高效訓練
大型語言模型
J
RichardErkhov
2,119
0
Mxbai Rerank Base V1
Apache-2.0
這是一個基於Transformers架構的重新排序(Reranker)模型,主要用於信息檢索和搜索結果優化任務。

M
khoj-ai
81
1
Bge Reranker Base Q8 0 GGUF
MIT
該模型是從BAAI/bge-reranker-base轉換而來的GGUF格式模型,主要用於文本重排序任務。
文本嵌入 支持多種語言
B
xinming0111
106
1
Thusinh1969 Gemma2 2b Rerank Checkpoint 8800 Gguf
基於Gemma 2B架構的文本排序模型,提供多種量化版本以適應不同硬件需求
T
RichardErkhov
71
0
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2的ONNX O4版本是一個經過優化的文本重排序模型,支持多語言文本對的相關性評分。
文本分類
Transformers

B
hooman650
39
5
Trecdl22 Crossencoder Debertav3
一個基於Transformer架構的文本排序模型,用於對句子或段落進行相關性排序。
文本嵌入
T
naver
9,226
1
Monot5 Base Msmarco
基於T5-base架構的重新排序模型,在MS MARCO段落數據集上微調10萬步,適用於信息檢索中的文檔重排序任務。
大型語言模型
M
castorini
7,405
11
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98