🚀 MiniCPM-Reranker
MiniCPM-Reranker 是面壁智能与清华大学自然语言处理实验室(THUNLP)、东北大学信息检索小组(NEUIR)共同开发的中英双语言文本重排序模型。它具备出色的中文、英文重排序能力,以及出色的中英跨语言重排序能力,为文本重排序任务提供了强大的支持。
✨ 主要特性
- 具备出色的中文、英文重排序能力。
- 拥有出色的中英跨语言重排序能力。
📦 安装指南
环境要求
transformers==4.37.2
flash-attn>2.3.5
💻 使用示例
输入格式
本模型支持指令,输入格式如下:
<s>Instruction: {{ instruction }} Query: {{ query }}</s>{{ document }}
例如:
<s>Instruction: 为这个医学问题检索相关回答。Query: 咽喉癌的成因是什么?</s>(文档省略)
<s>Instruction: Given a claim about climate change, retrieve documents that support or refute the claim. Query: However the warming trend is slower than most climate models have forecast.</s>(document omitted)
也可以不提供指令,即采取如下格式:
<s>Query: {{ query }}</s>{{ document }}
我们在BEIR与C-MTEB/Retrieval上测试时使用的指令见 instructions.json
,其他测试不使用指令。
示例脚本
Huggingface Transformers
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
import numpy as np
model_name = "openbmb/MiniCPM-Reranker"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
tokenizer.padding_side = "right"
model = AutoModelForSequenceClassification.from_pretrained(model_name, trust_remote_code=True, torch_dtype=torch.float16).to("cuda")
model.eval()
@torch.no_grad()
def rerank(input_query, input_docs):
tokenized_inputs = tokenizer([[input_query, input_doc] for input_doc in input_docs], return_tensors="pt", padding=True, truncation=True, max_length=1024)
for k in tokenized_inputs:
tokenized_inputs [k] = tokenized_inputs[k].to("cuda")
outputs = model(**tokenized_inputs)
score = outputs.logits
return score.float().detach().cpu().numpy()
queries = ["中国的首都是哪里?"]
passages = [["beijing", "shanghai"]]
INSTRUCTION = "Query: "
queries = [INSTRUCTION + query for query in queries]
scores = []
for i in range(len(queries)):
print(queries[i])
scores.append(rerank(queries[i],passages[i]))
print(np.array(scores))
Sentence Transformer
from sentence_transformers import CrossEncoder
import torch
model_name = "openbmb/MiniCPM-Reranker"
model = CrossEncoder(model_name,max_length=1024,trust_remote_code=True, automodel_args={"torch_dtype": torch.float16})
model.tokenizer.padding_side = "right"
query = "中国的首都是哪里?"
passages = [["beijing", "shanghai"]]
INSTRUCTION = "Query: "
query = INSTRUCTION + query
sentence_pairs = [[query, doc] for doc in passages]
scores = model.predict(sentence_pairs, convert_to_tensor=True).tolist()
rankings = model.rank(query, passages, return_documents=True, convert_to_tensor=True)
print(scores)
for ranking in rankings:
print(f"Score: {ranking['score']:.4f}, Corpus: {ranking['text']}")
📚 详细文档
模型信息
属性 |
详情 |
模型类型 |
中英双语言文本重排序模型 |
训练数据 |
约 600 万条,包括开源数据、机造数据、闭源数据 |
模型大小 |
2.4B |
最大输入token数 |
1024 |
实验结果
中文与英文重排序结果
中文对bge-large-zh-v1.5
检索的top-100进行重排,英文对bge-large-en-v1.5
检索的top-100进行重排。
模型 |
C-MTEB/Retrieval (NDCG@10) |
BEIR (NDCG@10) |
bge-large-zh-v1.5(Retriever for Chinese) |
70.46 |
- |
bge-large-en-v1.5(Retriever for English) |
- |
54.29 |
bge-reranker-v2-m3 |
71.82 |
55.36 |
bge-reranker-v2-minicpm-28 |
73.51 |
59.86 |
bge-reranker-v2-gemma |
71.74 |
60.71 |
bge-reranker-v2.5-gemma2 |
- |
63.67 |
MiniCPM-Reranker |
76.79 |
61.32 |
中英跨语言重排序结果
对bge-m3(Dense)检索的top100进行重排。
模型 |
MKQA En-Zh_CN (Recall@20) |
NeuCLIR22 (NDCG@10) |
NeuCLIR23 (NDCG@10) |
bge-m3 (Dense)(Retriever) |
66.4 |
30.49 |
41.09 |
jina-reranker-v2-base-multilingual |
69.33 |
36.66 |
50.03 |
bge-reranker-v2-m3 |
69.75 |
40.98 |
49.67 |
gte-multilingual-reranker-base |
68.51 |
38.74 |
45.3 |
MiniCPM-Reranker |
71.73 |
43.65 |
50.59 |
🔧 技术细节
MiniCPM-Reranker 基于 MiniCPM-2B-sft-bf16 训练,结构上采取双向注意力。采取多阶段训练方式,共使用包括开源数据、机造数据、闭源数据在内的约 600 万条训练数据。
📄 许可证
欢迎关注 RAG 套件系列: