🚀 BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF
本项目将Abliterated Q4_0 - GGUF与更优的mmproj(视觉)选项(x - ray_alpha)相结合,为用户带来更流畅的体验。该模型是通过llama.cpp,利用ggml.ai的GGUF - my - repo空间,从mlabonne/gemma-3-4b-it-abliterated
转换为GGUF格式的。

模型信息
属性 |
详情 |
基础模型 |
mlabonne/gemma-3-4b-it-abliterated、SicariusSicariiStuff/X-Ray_Alpha |
库名称 |
transformers |
许可证 |
gemma |
任务类型 |
image-text-to-text |
标签 |
llama-cpp、gguf-my-repo |
🚀 快速开始
📦 安装指南
通过brew安装llama.cpp(适用于Mac和Linux):
brew install llama.cpp
💻 使用示例
基础用法
可以通过命令行界面(CLI)或服务器模式使用该模型。
CLI模式
llama-cli --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -p "The meaning to life and the universe is"
服务器模式
llama-server --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -c 2048
高级用法
你也可以直接按照Llama.cpp仓库中列出的使用步骤使用该检查点。
步骤1:从GitHub克隆llama.cpp仓库。
git clone https://github.com/ggerganov/llama.cpp
步骤2:进入llama.cpp文件夹,并使用LLAMA_CURL = 1
标志以及其他特定硬件标志(例如,在Linux上使用Nvidia GPU时使用LLAMA_CUDA = 1
)进行编译。
cd llama.cpp && LLAMA_CURL=1 make
步骤3:通过主二进制文件运行推理。
./llama-cli --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -c 2048
📚 详细文档
更多关于该模型的详细信息,请参考原始模型卡片。
📄 许可证
本项目使用gemma许可证。