🚀 NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF
本模型是使用llama.cpp,通过ggml.ai的GGUF-my-repo空间,从AtlaAI/Selene-1-Mini-Llama-3.1-8B
转换为GGUF格式的。如需了解该模型的更多详细信息,请参考原始模型卡片。
🚀 快速开始
✨ 主要特性
- 多语言支持:支持英语(en)、德语(de)、法语(fr)、意大利语(it)、葡萄牙语(pt)和西班牙语(es)。
- 文本生成:适用于文本生成任务。
- 相关标签:包含llama、atla、evaluation、llm-as-a-judge、meta、conversational、lm-judge、llama-cpp、gguf-my-repo等标签。
- 许可证:采用llama3.1许可证。
📦 安装指南
通过brew安装llama.cpp(适用于Mac和Linux):
brew install llama.cpp
💻 使用示例
基础用法
CLI方式:
llama-cli --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -p "The meaning to life and the universe is"
服务器方式:
llama-server --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -c 2048
高级用法
你也可以直接通过Llama.cpp仓库中列出的使用步骤来使用此检查点。
步骤1:从GitHub克隆llama.cpp:
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹,并使用LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA=1
)进行编译:
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理:
./llama-cli --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo NikolayKozloff/Selene-1-Mini-Llama-3.1-8B-Q6_K-GGUF --hf-file selene-1-mini-llama-3.1-8b-q6_k.gguf -c 2048
📚 详细文档
属性 |
详情 |
基础模型 |
AtlaAI/Selene-1-Mini-Llama-3.1-8B |
库名称 |
transformers |
支持语言 |
英语(en)、德语(de)、法语(fr)、意大利语(it)、葡萄牙语(pt)、西班牙语(es) |
任务类型 |
文本生成 |
标签 |
llama、atla、evaluation、llm-as-a-judge、meta、conversational、lm-judge、llama-cpp、gguf-my-repo |
许可证 |
llama3.1 |