Qwen3 Reranker 4B W4A16 G128
Apache-2.0
这是对Qwen/Qwen3-Reranker-4B进行GPTQ量化的成果,显著降低了显存使用量
大型语言模型
Transformers

Q
boboliu
157
1
Qwen3 Embedding 4B W4A16 G128
Apache-2.0
这是经过GPTQ量化的Qwen3-Embedding-4B模型,显存使用量显著降低,性能损失较小。
文本嵌入
Q
boboliu
141
1
Qwen.qwen3 Reranker 0.6B GGUF
Qwen3-Reranker-0.6B的量化版本,致力于让知识为每个人所用。
大型语言模型
Q
DevQuasar
1,481
3
Finetuned Cross Encoder L6 V2
这是一个基于cross-encoder/ms-marco-MiniLM-L6-v2微调的交叉编码器模型,主要用于文本重排序和语义搜索任务。
文本嵌入
F
CharlesPing
22
1
Bge Reranker Ft
这是一个从BAAI/bge-reranker-base微调而来的交叉编码器模型,用于文本对评分,适用于文本重排序和语义搜索任务。
文本嵌入
B
foochun
70
0
Reranker Gte Multilingual Base Msmarco Bce Ep 2
基于sentence-transformers库在msmarco数据集上训练的交叉编码器模型,用于文本重排序和语义搜索
文本嵌入 支持多种语言
R
skfrost19
28
0
Reranker MiniLM L6 H384 Uncased Gooaq 5 Epoch 1995000
Apache-2.0
这是一个从nreimers/MiniLM-L6-H384-uncased微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入 英语
R
ayushexel
24
0
Reranker ModernBERT Base Gooaq 1 Epoch 1995000
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入 英语
R
ayushexel
30
0
Reranker ModernBERT Base Gooaq Bce
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入 英语
R
tomaarsen
483
2
Reranker Msmarco ModernBERT Base Lambdaloss
Apache-2.0
这是一个从ModernBERT-base微调而来的交叉编码器模型,用于计算文本对的分数,适用于文本重排序和语义搜索任务。
文本嵌入 英语
R
tomaarsen
89
4
Mixedbread Ai.mxbai Rerank Large V2 GGUF
mxbai-rerank-large-v2 是一个用于文本排序的基础模型,专注于提升搜索结果的相关性和准确性。
文本嵌入
M
DevQuasar
938
0
Reranker Msmarco MiniLM L12 H384 Uncased Lambdaloss
Apache-2.0
这是一个基于MiniLM-L12-H384-uncased微调的交叉编码器模型,用于文本重排序和语义搜索任务。
文本嵌入 英语
R
tomaarsen
1,019
3
Lightblue Reranker 0.5 Cont Gguf
这是一个文本排序模型,用于对文本进行重新排序和评分。
文本嵌入
L
RichardErkhov
1,986
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Newer Small Gguf
基于Qwen2.5架构的0.5亿参数文本排序模型,适用于信息检索和文档排序任务
大型语言模型
J
RichardErkhov
2,117
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker New Small Gguf
基于Qwen2.5架构的0.5B参数规模的文本排序模型,适用于重排序任务。
大型语言模型
J
RichardErkhov
2,454
0
Jbaron34 Qwen2.5 0.5b Bebop Reranker Gguf
基于Qwen2.5架构的0.5B参数文本排序模型,使用Unsloth和TRL库高效训练
大型语言模型
J
RichardErkhov
2,119
0
Mxbai Rerank Base V1
Apache-2.0
这是一个基于Transformers架构的重新排序(Reranker)模型,主要用于信息检索和搜索结果优化任务。
重排序
Transformers 英语

M
khoj-ai
81
1
Bge Reranker Base Q8 0 GGUF
MIT
该模型是从BAAI/bge-reranker-base转换而来的GGUF格式模型,主要用于文本重排序任务。
文本嵌入 支持多种语言
B
xinming0111
106
1
Thusinh1969 Gemma2 2b Rerank Checkpoint 8800 Gguf
基于Gemma 2B架构的文本排序模型,提供多种量化版本以适应不同硬件需求
文本排序
T
RichardErkhov
71
0
Bge Reranker V2 M3 Onnx O4
Apache-2.0
BGE-RERANKER-V2的ONNX O4版本是一个经过优化的文本重排序模型,支持多语言文本对的相关性评分。
文本分类
Transformers

B
hooman650
39
5
Trecdl22 Crossencoder Debertav3
一个基于Transformer架构的文本排序模型,用于对句子或段落进行相关性排序。
文本嵌入
T
naver
9,226
1
Monot5 Base Msmarco
基于T5-base架构的重新排序模型,在MS MARCO段落数据集上微调10万步,适用于信息检索中的文档重排序任务。
大型语言模型
M
castorini
7,405
11
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98