🚀 KnutJaegersberg/gemma-3-27b-it-abliterated-Q8_0-GGUF
本项目将模型转换为GGUF格式,解决了特定模型在特定格式下的使用问题,为用户提供了更便捷的模型使用体验。该模型从mlabonne/gemma-3-27b-it-abliterated
转换而来,借助llama.cpp和ggml.ai的GGUF-my-repo空间完成格式转换。
🚀 快速开始
本模型是从mlabonne/gemma-3-27b-it-abliterated
使用llama.cpp通过ggml.ai的GGUF-my-repo空间转换为GGUF格式的。有关该模型的更多详细信息,请参考原始模型卡片。
📦 安装指南
通过brew安装llama.cpp(适用于Mac和Linux)
brew install llama.cpp
💻 使用示例
基础用法
CLI方式:
llama-cli --hf-repo KnutJaegersberg/gemma-3-27b-it-abliterated-Q8_0-GGUF --hf-file gemma-3-27b-it-abliterated-q8_0.gguf -p "The meaning to life and the universe is"
服务器方式:
llama-server --hf-repo KnutJaegersberg/gemma-3-27b-it-abliterated-Q8_0-GGUF --hf-file gemma-3-27b-it-abliterated-q8_0.gguf -c 2048
高级用法
你也可以直接通过Llama.cpp仓库中列出的使用步骤来使用此检查点。
步骤1:从GitHub克隆llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹,并使用LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA=1
)进行编译。
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理。
./llama-cli --hf-repo KnutJaegersberg/gemma-3-27b-it-abliterated-Q8_0-GGUF --hf-file gemma-3-27b-it-abliterated-q8_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo KnutJaegersberg/gemma-3-27b-it-abliterated-Q8_0-GGUF --hf-file gemma-3-27b-it-abliterated-q8_0.gguf -c 2048
📄 许可证
本模型使用gemma许可证。
属性 |
详情 |
基础模型 |
mlabonne/gemma-3-27b-it-abliterated |
库名称 |
transformers |
许可证 |
gemma |
任务类型 |
图像文本到文本 |
标签 |
llama-cpp, gguf-my-repo |