🚀 xinming0111/bge-reranker-base-Q8_0-GGUF
本模型是使用llama.cpp通过ggml.ai的GGUF-my-repo空间,从BAAI/bge-reranker-base
转换为GGUF格式的。有关该模型的更多详细信息,请参考原始模型卡片。
🚀 快速开始
✨ 主要特性
- 模型标签:mteb、text-embeddings-inference、llama-cpp、gguf-my-repo
- 任务类型:文本分类
- 使用库:sentence-transformers
- 基础模型:BAAI/bge-reranker-base
📦 安装指南
通过brew安装llama.cpp(适用于Mac和Linux)
brew install llama.cpp
💻 使用示例
基础用法
可以通过命令行界面(CLI)或服务器模式使用该模型。
CLI模式:
llama-cli --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -p "The meaning to life and the universe is"
服务器模式:
llama-server --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -c 2048
高级用法
你也可以直接按照Llama.cpp仓库中列出的使用步骤使用此检查点。
步骤1:从GitHub克隆llama.cpp仓库。
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹,并使用LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA=1
)进行编译。
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理。
./llama-cli --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo xinming0111/bge-reranker-base-Q8_0-GGUF --hf-file bge-reranker-base-q8_0.gguf -c 2048
📚 详细文档
模型指标
任务类型 |
数据集名称 |
数据集类型 |
数据集分割 |
MAP值 |
MRR值 |
重排序 |
MTEB CMedQAv1 |
C-MTEB/CMedQAv1-reranking |
测试集 |
81.27206722525007 |
84.14238095238095 |
重排序 |
MTEB CMedQAv2 |
C-MTEB/CMedQAv2-reranking |
测试集 |
84.10369934291236 |
86.79376984126984 |
重排序 |
MTEB MMarcoReranking |
C-MTEB/Mmarco-reranking |
开发集 |
35.4600511272538 |
34.60238095238095 |
重排序 |
MTEB T2Reranking |
C-MTEB/T2Reranking |
开发集 |
67.27728847727172 |
77.1315192743764 |
📄 许可证
本模型使用MIT许可证。