🚀 azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF
本模型是通过 llama.cpp,借助 ggml.ai 的 GGUF-my-repo 空间,从 behbudiy/Llama-3.1-8B-Instuct-Uz
转换为 GGUF 格式的。有关该模型的更多详细信息,请参考 原始模型卡片。
🚀 快速开始
本模型可以通过 llama.cpp 进行使用,以下是详细步骤。
📦 安装指南
通过 brew 安装 llama.cpp(适用于 Mac 和 Linux)
brew install llama.cpp
💻 使用示例
基础用法
使用 CLI 调用
llama-cli --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -p "The meaning to life and the universe is"
使用 Server 调用
llama-server --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -c 2048
高级用法
你也可以直接通过 Llama.cpp 仓库中列出的 使用步骤 来使用此检查点。
步骤 1:从 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步骤 2:进入 llama.cpp 文件夹并使用 LLAMA_CURL=1
标志以及其他特定于硬件的标志进行构建(例如,在 Linux 上使用 Nvidia GPU 时使用 LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步骤 3:通过主二进制文件运行推理
./llama-cli --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo azimjon/Llama-3.1-8B-Instuct-Uz-Q4_K_M-GGUF --hf-file llama-3.1-8b-instuct-uz-q4_k_m.gguf -c 2048
📚 详细文档
属性 |
详情 |
许可证 |
llama3.1 |
支持语言 |
uz、en |
基础模型 |
behbudiy/Llama-3.1-8B-Instuct-Uz |
库名称 |
transformers |
标签 |
llama、text-generation-inference、summarization、translation、question-answering、llama-cpp、gguf-my-repo |
数据集 |
yahma/alpaca-cleaned、behbudiy/alpaca-cleaned-uz、behbudiy/translation-instruction |
评估指标 |
bleu、comet、accuracy |
任务类型 |
text-generation |