🚀 djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF
该模型是使用llama.cpp通过ggml.ai的GGUF-my-repo空间,从jinaai/jina-embeddings-v2-base-en
转换为GGUF格式的。有关该模型的更多详细信息,请参考原始模型卡片。
🚀 快速开始
与llama.cpp一起使用
通过brew(适用于Mac和Linux)安装llama.cpp:
brew install llama.cpp
调用llama.cpp服务器或CLI。
CLI:
llama-cli --hf-repo djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF --hf-file jina-embeddings-v2-base-en-q5_k_m.gguf -p "The meaning to life and the universe is"
服务器:
llama-server --hf-repo djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF --hf-file jina-embeddings-v2-base-en-q5_k_m.gguf -c 2048
注意:您也可以直接通过Llama.cpp仓库中列出的使用步骤使用此检查点。
步骤1:从GitHub克隆llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹,并使用LLAMA_CURL=1
标志以及其他特定于硬件的标志(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA=1
)进行构建。
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理。
./llama-cli --hf-repo djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF --hf-file jina-embeddings-v2-base-en-q5_k_m.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF --hf-file jina-embeddings-v2-base-en-q5_k_m.gguf -c 2048
📦 安装指南
通过brew安装llama.cpp:
brew install llama.cpp
💻 使用示例
基础用法
llama-cli --hf-repo djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF --hf-file jina-embeddings-v2-base-en-q5_k_m.gguf -p "The meaning to life and the universe is"
高级用法
llama-server --hf-repo djuna/jina-embeddings-v2-base-en-Q5_K_M-GGUF --hf-file jina-embeddings-v2-base-en-q5_k_m.gguf -c 2048
📚 详细文档
模型信息
属性 |
详情 |
基础模型 |
jinaai/jina-embeddings-v2-base-en |
数据集 |
allenai/c4 |
语言 |
英语 |
许可证 |
apache-2.0 |
标签 |
sentence-transformers、feature-extraction、sentence-similarity、mteb、llama-cpp、gguf-my-repo |
推理 |
否 |
模型评估结果
该模型在多个任务和数据集上进行了评估,以下是部分评估结果:
分类任务
数据集 |
准确率 |
AP |
F1 |
MTEB AmazonCounterfactualClassification (en) |
74.73134328358209 |
37.765427081831035 |
68.79367444339518 |
MTEB AmazonPolarityClassification |
88.544275 |
84.61328675662887 |
88.51879035862375 |
MTEB AmazonReviewsClassification (en) |
45.263999999999996 |
- |
43.778759656699435 |
... |
... |
... |
... |
检索任务
数据集 |
MAP@1 |
MAP@10 |
MAP@100 |
... |
MTEB ArguAna |
21.693 |
35.487 |
36.862 |
... |
MTEB CQADupstackAndroidRetrieval |
31.391999999999996 |
42.597 |
44.07 |
... |
... |
... |
... |
... |
... |
聚类任务
数据集 |
V-measure |
MTEB ArxivClusteringP2P |
45.39242428696777 |
MTEB ArxivClusteringS2S |
36.675626784714 |
... |
... |
重排序任务
数据集 |
MAP |
MRR |
MTEB AskUbuntuDupQuestions |
62.247725694904034 |
74.91359978894604 |
MTEB StackOverflowDupQuestions |
52.04862593471896 |
52.97238402936932 |
... |
... |
... |
语义文本相似度任务
数据集 |
余弦相似度皮尔逊相关系数 |
余弦相似度斯皮尔曼相关系数 |
... |
MTEB BIOSSES |
82.68003802970496 |
81.23438110096286 |
... |
MTEB SICK-R |
84.96178184892842 |
79.6487740813199 |
... |
... |
... |
... |
... |
使用注意事项
⚠️ 重要提示
可以直接通过Llama.cpp仓库中列出的使用步骤使用此检查点。
💡 使用建议
在使用服务器时,可以根据需要调整上下文长度参数-c
。