🚀 sabafallah/bge-reranker-base-Q4_K_M-GGUF
本項目是將模型轉換為GGUF格式,原始模型為BAAI/bge-reranker-base
,藉助llama.cpp通過ggml.ai的GGUF-my-repo空間完成轉換。如需瞭解該模型的更多詳細信息,請參考原始模型卡片。
📦 安裝指南
使用brew安裝llama.cpp(適用於Mac和Linux)
brew install llama.cpp
💻 使用示例
基礎用法
使用命令行界面(CLI)
llama-cli --hf-repo sabafallah/bge-reranker-base-Q4_K_M-GGUF --hf-file bge-reranker-base-q4_k_m.gguf -p "The meaning to life and the universe is"
使用服務器
llama-server --hf-repo sabafallah/bge-reranker-base-Q4_K_M-GGUF --hf-file bge-reranker-base-q4_k_m.gguf -c 2048
高級用法
你也可以直接按照Llama.cpp倉庫中列出的使用步驟來使用此檢查點。
步驟1:從GitHub克隆llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾並使用LLAMA_CURL=1
標誌以及其他特定硬件標誌進行編譯(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理
./llama-cli --hf-repo sabafallah/bge-reranker-base-Q4_K_M-GGUF --hf-file bge-reranker-base-q4_k_m.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo sabafallah/bge-reranker-base-Q4_K_M-GGUF --hf-file bge-reranker-base-q4_k_m.gguf -c 2048
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
BAAI/bge-reranker-base |
支持語言 |
英語、中文 |
庫名稱 |
sentence-transformers |
許可證 |
MIT |
任務類型 |
文本排序 |
標籤 |
mteb、text-embeddings-inference、llama-cpp、gguf-my-repo |
模型評估結果
任務類型 |
數據集名稱 |
數據集類型 |
數據集配置 |
數據集分割 |
評估指標 |
指標值 |
重排序 |
MTEB CMedQAv1 |
C-MTEB/CMedQAv1-reranking |
default |
test |
map |
81.27206722525007 |
重排序 |
MTEB CMedQAv1 |
C-MTEB/CMedQAv1-reranking |
default |
test |
mrr |
84.14238095238095 |
重排序 |
MTEB CMedQAv2 |
C-MTEB/CMedQAv2-reranking |
default |
test |
map |
84.10369934291236 |
重排序 |
MTEB CMedQAv2 |
C-MTEB/CMedQAv2-reranking |
default |
test |
mrr |
86.79376984126984 |
重排序 |
MTEB MMarcoReranking |
C-MTEB/Mmarco-reranking |
default |
dev |
map |
35.4600511272538 |
重排序 |
MTEB MMarcoReranking |
C-MTEB/Mmarco-reranking |
default |
dev |
mrr |
34.60238095238095 |
重排序 |
MTEB T2Reranking |
C-MTEB/T2Reranking |
default |
dev |
map |
67.27728847727172 |
重排序 |
MTEB T2Reranking |
C-MTEB/T2Reranking |
default |
dev |
mrr |
77.1315192743764 |
📄 許可證
本項目採用MIT許可證。