🚀 JHJHJHJHJ/multilingual - e5 - large - instruct - Q5_K_M - GGUF
本模型是通過llama.cpp,藉助ggml.ai的GGUF - my - repo空間,從intfloat/multilingual-e5-large-instruct
轉換為GGUF格式的。有關該模型的更多詳細信息,請參考原始模型卡片。
🚀 快速開始
✨ 主要特性
此模型支持多語言,涵蓋了眾多語言類型,如英語、中文、日語等,並且在多種自然語言處理任務上有相應的評估指標,包括分類、檢索、聚類等任務。
📦 安裝指南
使用brew安裝llama.cpp(適用於Mac和Linux)
brew install llama.cpp
💻 使用示例
基礎用法
使用llama.cpp的命令行界面(CLI)進行推理:
llama-cli --hf-repo JHJHJHJHJ/multilingual-e5-large-instruct-Q5_K_M-GGUF --hf-file multilingual-e5-large-instruct-q5_k_m.gguf -p "The meaning to life and the universe is"
高級用法
使用llama.cpp的服務器模式進行推理:
llama-server --hf-repo JHJHJHJHJ/multilingual-e5-large-instruct-Q5_K_M-GGUF --hf-file multilingual-e5-large-instruct-q5_k_m.gguf -c 2048
另一種使用方式
步驟1:從GitHub克隆llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾並使用LLAMA_CURL = 1
標誌以及其他特定硬件標誌進行編譯(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA = 1
)
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理
使用命令行界面(CLI):
./llama-cli --hf-repo JHJHJHJHJ/multilingual-e5-large-instruct-Q5_K_M-GGUF --hf-file multilingual-e5-large-instruct-q5_k_m.gguf -p "The meaning to life and the universe is"
或者使用服務器模式:
./llama-server --hf-repo JHJHJHJHJ/multilingual-e5-large-instruct-Q5_K_M-GGUF --hf-file multilingual-e5-large-instruct-q5_k_m.gguf -c 2048
📚 詳細文檔
該模型在眾多自然語言處理任務上有詳細的評估結果,以下是部分任務的評估指標表格:
任務類型 |
數據集名稱 |
準確率 |
平均精度 |
F1值 |
其他指標 |
分類 |
MTEB AmazonCounterfactualClassification (en) |
76.23880597014924 |
39.07351965022687 |
70.04836733862683 |
- |
分類 |
MTEB AmazonPolarityClassification |
96.28742500000001 |
94.8449918887462 |
96.28680923610432 |
- |
檢索 |
MTEB ArguAna |
- |
- |
- |
map_at_1: 31.721, map_at_10: 49.221等 |
聚類 |
MTEB ArxivClusteringP2P |
- |
- |
- |
v_measure: 46.40419580759799 |
重排序 |
MTEB AskUbuntuDupQuestions |
- |
- |
- |
map: 63.889179122289995, mrr: 77.61146286769556 |
STS |
MTEB BIOSSES |
- |
- |
- |
cos_sim_pearson: 88.15075203727929等 |
雙語挖掘 |
MTEB BUCC (de - en) |
99.65553235908142 |
- |
99.60681976339595 |
precision: 99.58246346555325, recall: 99.65553235908142 |
📄 許可證
該模型使用的許可證為MIT許可證。
🔧 技術細節
此模型基於intfloat/multilingual-e5-large-instruct
基礎模型轉換而來,藉助llama.cpp和ggml.ai的GGUF - my - repo空間完成格式轉換。在轉換過程中,確保了模型在多種語言和任務上的性能得以保留,並且通過不同的評估指標對模型在各個任務上的表現進行了詳細的評估,以驗證其有效性和準確性。