🚀 azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF
本模型是通過 llama.cpp,藉助 ggml.ai 的 GGUF-my-repo 空間,從 behbudiy/Llama-3.1-8B-Instuct-Uz
轉換為 GGUF 格式的。有關該模型的更多詳細信息,請參考 原始模型卡片。
🚀 快速開始
本模型可以通過 llama.cpp 進行使用,以下是詳細步驟。
📦 安裝指南
通過 brew 安裝 llama.cpp(適用於 Mac 和 Linux)
brew install llama.cpp
💻 使用示例
基礎用法
使用 CLI 調用
llama-cli --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -p "The meaning to life and the universe is"
使用 Server 調用
llama-server --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -c 2048
高級用法
你也可以直接通過 Llama.cpp 倉庫中列出的 使用步驟 來使用此檢查點。
步驟 1:從 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟 2:進入 llama.cpp 文件夾並使用 LLAMA_CURL=1
標誌以及其他特定於硬件的標誌進行構建(例如,在 Linux 上使用 Nvidia GPU 時使用 LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步驟 3:通過主二進制文件運行推理
./llama-cli --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -c 2048
📚 詳細文檔
屬性 |
詳情 |
許可證 |
llama3.1 |
支持語言 |
uz、en |
基礎模型 |
behbudiy/Llama-3.1-8B-Instuct-Uz |
庫名稱 |
transformers |
標籤 |
llama、text-generation-inference、summarization、translation、question-answering、llama-cpp、gguf-my-repo |
數據集 |
yahma/alpaca-cleaned、behbudiy/alpaca-cleaned-uz、behbudiy/translation-instruction |
評估指標 |
bleu、comet、accuracy |
任務類型 |
text-generation |