Gguf Jina Reranker V1 Tiny En
專為極速重排序設計的模型,基於JinaBERT架構,支持長文本序列處理(最高8,192令牌)。
下載量 3,831
發布時間 : 1/25/2025
模型概述
該模型通過知識蒸餾技術實現快速重排序,在保持競爭力的性能下優先考慮速度,適合對絕對準確性要求不高的場景。
模型特點
極速重排序
通過4層架構和33.0百萬參數設計,實現最快的推理速度。
長文本處理
支持最高8,192個令牌的序列長度,優於傳統重排序模型。
知識蒸餾技術
從更復雜的教師模型(jina-reranker-v1-base-en)中提取知識,保持競爭力性能。
模型能力
文本重排序
長文本序列處理
快速推理
使用案例
信息檢索
搜索結果重排序
對搜索引擎返回的結果進行相關性重排序
提高前3位結果的命中率達85%
推薦系統
推薦內容排序
根據用戶查詢對推薦內容進行相關性排序
🚀 jina-reranker-v1-tiny-en-GGUF
jina-reranker-v1-tiny-en-GGUF
模型專為實現極快的重排序速度而設計,同時保持了具有競爭力的性能。它基於 JinaBERT 模型,能夠處理長達 8192 個標記的文本序列,在文本重排序任務中表現出色。
🚀 快速開始
使用 Jina AI 的 Reranker API
使用 Jina AI 的 Reranker API 是開始使用 jina-reranker-v1-tiny-en
的最簡單方法。
curl https://api.jina.ai/v1/rerank \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "jina-reranker-v1-tiny-en",
"query": "Organic skincare products for sensitive skin",
"documents": [
"Eco-friendly kitchenware for modern homes",
"Biodegradable cleaning supplies for eco-conscious consumers",
"Organic cotton baby clothes for sensitive skin",
"Natural organic skincare range for sensitive skin",
"Tech gadgets for smart homes: 2024 edition",
"Sustainable gardening tools and compost solutions",
"Sensitive skin-friendly facial cleansers and toners",
"Organic food wraps and storage solutions",
"All-natural pet food for dogs with allergies",
"Yoga mats made from recycled materials"
],
"top_n": 3
}'
使用 sentence-transformers
庫
你可以使用最新版本的 sentence-transformers>=0.27.0
庫與模型進行交互。首先,通過以下命令安裝該庫:
pip install -U sentence-transformers
然後,使用以下代碼與模型進行交互:
from sentence_transformers import CrossEncoder
# Load the model, here we use our tiny sized model
model = CrossEncoder("jinaai/jina-reranker-v1-tiny-en", trust_remote_code=True)
# Example query and documents
query = "Organic skincare products for sensitive skin"
documents = [
"Eco-friendly kitchenware for modern homes",
"Biodegradable cleaning supplies for eco-conscious consumers",
"Organic cotton baby clothes for sensitive skin",
"Natural organic skincare range for sensitive skin",
"Tech gadgets for smart homes: 2024 edition",
"Sustainable gardening tools and compost solutions",
"Sensitive skin-friendly facial cleansers and toners",
"Organic food wraps and storage solutions",
"All-natural pet food for dogs with allergies",
"Yoga mats made from recycled materials"
]
results = model.rank(query, documents, return_documents=True, top_k=3)
使用 transformers
庫
你還可以使用 transformers
庫以編程方式與模型進行交互。
!pip install transformers
from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained(
'jinaai/jina-reranker-v1-tiny-en', num_labels=1, trust_remote_code=True
)
# Example query and documents
query = "Organic skincare products for sensitive skin"
documents = [
"Eco-friendly kitchenware for modern homes",
"Biodegradable cleaning supplies for eco-conscious consumers",
"Organic cotton baby clothes for sensitive skin",
"Natural organic skincare range for sensitive skin",
"Tech gadgets for smart homes: 2024 edition",
"Sustainable gardening tools and compost solutions",
"Sensitive skin-friendly facial cleansers and toners",
"Organic food wraps and storage solutions",
"All-natural pet food for dogs with allergies",
"Yoga mats made from recycled materials"
]
# construct sentence pairs
sentence_pairs = [[query, doc] for doc in documents]
scores = model.compute_score(sentence_pairs)
使用 transformers.js
庫
你可以使用 transformers.js
庫直接在 JavaScript(瀏覽器、Node.js、Deno 等)中運行模型。首先,通過以下命令安裝該庫:
npm i @xenova/transformers
然後,使用以下代碼與模型進行交互:
import { AutoTokenizer, AutoModelForSequenceClassification } from '@xenova/transformers';
const model_id = 'jinaai/jina-reranker-v1-tiny-en';
const model = await AutoModelForSequenceClassification.from_pretrained(model_id, { quantized: false });
const tokenizer = await AutoTokenizer.from_pretrained(model_id);
/**
* Performs ranking with the CrossEncoder on the given query and documents. Returns a sorted list with the document indices and scores.
* @param {string} query A single query
* @param {string[]} documents A list of documents
* @param {Object} options Options for ranking
* @param {number} [options.top_k=undefined] Return the top-k documents. If undefined, all documents are returned.
* @param {number} [options.return_documents=false] If true, also returns the documents. If false, only returns the indices and scores.
*/
async function rank(query, documents, {
top_k = undefined,
return_documents = false,
} = {}) {
const inputs = tokenizer(
new Array(documents.length).fill(query),
{ text_pair: documents, padding: true, truncation: true }
)
const { logits } = await model(inputs);
return logits.sigmoid().tolist()
.map(([score], i) => ({
corpus_id: i,
score,
...(return_documents ? { text: documents[i] } : {})
})).sort((a, b) => b.score - a.score).slice(0, top_k);
}
// Example usage:
const query = "Organic skincare products for sensitive skin"
const documents = [
"Eco-friendly kitchenware for modern homes",
"Biodegradable cleaning supplies for eco-conscious consumers",
"Organic cotton baby clothes for sensitive skin",
"Natural organic skincare range for sensitive skin",
"Tech gadgets for smart homes: 2024 edition",
"Sustainable gardening tools and compost solutions",
"Sensitive skin-friendly facial cleansers and toners",
"Organic food wraps and storage solutions",
"All-natural pet food for dogs with allergies",
"Yoga mats made from recycled materials",
]
const results = await rank(query, documents, { return_documents: true, top_k: 3 });
console.log(results);
✨ 主要特性
- 極快的重排序速度:通過知識蒸餾技術,該模型在保持較高準確率的同時,實現了極快的推理速度。
- 長序列處理能力:基於 JinaBERT 模型,支持對稱雙向的 ALiBi,能夠處理長達 8192 個標記的文本序列。
- 多種使用方式:支持通過 Jina AI 的 Reranker API、
sentence-transformers
庫、transformers
庫和transformers.js
庫與模型進行交互。
📦 安裝指南
安裝 sentence-transformers
庫
pip install -U sentence-transformers
安裝 transformers
庫
pip install transformers
安裝 transformers.js
庫
npm i @xenova/transformers
📚 詳細文檔
模型信息
屬性 | 詳情 |
---|---|
模型創建者 | Jina AI |
原始模型 | jina-reranker-v1-tiny-en |
GGUF 量化 | 基於 llama.cpp 版本 f4d2b |
重排序模型對比
模型名稱 | 層數 | 隱藏層大小 | 參數數量(百萬) |
---|---|---|---|
jina-reranker-v1-base-en | 12 | 768 | 137.0 |
jina-reranker-v1-turbo-en | 6 | 384 | 37.8 |
jina-reranker-v1-tiny-en | 4 | 384 | 33.0 |
評估結果
為確保頂級性能和搜索相關性,我們在 3 個關鍵基準測試中對 Jina Reranker 進行了評估。
模型名稱 | NDCG@10 (17 BEIR 數據集) | NDCG@10 (5 LoCo 數據集) | 命中率 (LlamaIndex RAG) |
---|---|---|---|
jina-reranker-v1-base-en |
52.45 | 87.31 | 85.53 |
jina-reranker-v1-turbo-en |
49.60 | 69.21 | 85.13 |
jina-reranker-v1-tiny-en (當前模型) |
48.54 | 70.29 | 85.00 |
mxbai-rerank-base-v1 |
49.19 | - | 82.50 |
mxbai-rerank-xsmall-v1 |
48.80 | - | 83.69 |
ms-marco-MiniLM-L-6-v2 |
48.64 | - | 82.63 |
ms-marco-MiniLM-L-4-v2 |
47.81 | - | 83.82 |
bge-reranker-base |
47.89 | - | 83.03 |
⚠️ 重要提示
NDCG@10
是衡量排序質量的指標,分數越高表示搜索結果越好。命中率
衡量的是相關文檔出現在前 10 個搜索結果中的百分比。- 由於其他模型不支持超過 512 個標記的長文檔,因此無法獲取它們在 LoCo 數據集上的結果。
更多詳細信息,請參考我們的 基準測試表。
📄 許可證
本項目採用 Apache-2.0 許可證。
🔗 聯繫我們
加入我們的 Discord 社區,與其他社區成員交流想法。
Jina Embeddings V3
Jina Embeddings V3 是一個多語言句子嵌入模型,支持超過100種語言,專注於句子相似度和特徵提取任務。
文本嵌入
Transformers 支持多種語言

J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
基於MS Marco段落排序任務訓練的交叉編碼器模型,用於信息檢索中的查詢-段落相關性評分
文本嵌入 英語
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
基於蒸餾技術的稀疏檢索模型,專為OpenSearch優化,支持免推理文檔編碼,在搜索相關性和效率上優於V1版本
文本嵌入
Transformers 英語

O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
基於PubMedBERT的生物醫學實體表徵模型,通過自對齊預訓練優化語義關係捕捉
文本嵌入 英語
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Large 是一個強大的句子轉換器模型,專注於句子相似度和文本嵌入任務,在多個基準測試中表現出色。
文本嵌入 英語
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 是一個英文句子轉換器模型,專注於句子相似度任務,在多個文本嵌入基準測試中表現優異。
文本嵌入
Transformers 支持多種語言

G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base 是一個多語言的句子嵌入模型,支持超過50種語言,適用於句子相似度計算等任務。
文本嵌入
Transformers 支持多種語言

G
Alibaba-NLP
1.2M
246
Polybert
polyBERT是一個化學語言模型,旨在實現完全由機器驅動的超快聚合物信息學。它將PSMILES字符串映射為600維密集指紋,以數值形式表示聚合物化學結構。
文本嵌入
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
基於土耳其語BERT的句子嵌入模型,專為語義相似度任務優化
文本嵌入
Transformers 其他

B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
基於BAAI/bge-small-en-v1.5模型微調的文本嵌入模型,通過MEDI數據集與MTEB分類任務數據集訓練,優化了檢索任務的查詢編碼能力。
文本嵌入
Safetensors 英語
G
avsolatorio
945.68k
29
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98