🚀 Triangle104/Huihui-gemma-3n-E4B-it-abliterated-Q4_K_M-GGUF
本项目将模型从 huihui-ai/Huihui-gemma-3n-E4B-it-abliterated
转换为 GGUF 格式。转换借助 llama.cpp 并通过 ggml.ai 的 GGUF-my-repo 空间完成。如需了解该模型的更多详细信息,请参考 原始模型卡片。
🚀 快速开始
访问 Gemma 模型
要在 Hugging Face 上访问 Gemma 模型,你需要查看并同意 Google 的使用许可。请确保你已登录 Hugging Face 账号,然后点击下方按钮。请求将立即处理。
模型基本信息
属性 |
详情 |
库名称 |
transformers |
任务类型 |
图像文本转文本 |
基础模型 |
huihui-ai/Huihui-gemma-3n-E4B-it-abliterated |
标签 |
自动语音识别、自动语音翻译、音频文本转文本、视频文本转文本、消融处理、未审查、llama-cpp、gguf-my-repo |
许可证 |
gemma |
📦 安装指南
使用 Homebrew 安装 llama.cpp(适用于 Mac 和 Linux)
brew install llama.cpp
💻 使用示例
基础用法
使用 CLI 进行推理
llama-cli --hf-repo Triangle104/Huihui-gemma-3n-E4B-it-abliterated-Q4_K_M-GGUF --hf-file huihui-gemma-3n-e4b-it-abliterated-q4_k_m.gguf -p "The meaning to life and the universe is"
使用 Server 进行推理
llama-server --hf-repo Triangle104/Huihui-gemma-3n-E4B-it-abliterated-Q4_K_M-GGUF --hf-file huihui-gemma-3n-e4b-it-abliterated-q4_k_m.gguf -c 2048
高级用法
你也可以按照 Llama.cpp 仓库中列出的 使用步骤 直接使用此检查点。
步骤 1:从 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步骤 2:进入 llama.cpp 文件夹并使用 LLAMA_CURL=1
标志以及其他特定于硬件的标志(例如,在 Linux 上使用 Nvidia GPU 时使用 LLAMA_CUDA=1
)进行编译
cd llama.cpp && LLAMA_CURL=1 make
步骤 3:通过主二进制文件运行推理
./llama-cli --hf-repo Triangle104/Huihui-gemma-3n-E4B-it-abliterated-Q4_K_M-GGUF --hf-file huihui-gemma-3n-e4b-it-abliterated-q4_k_m.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo Triangle104/Huihui-gemma-3n-E4B-it-abliterated-Q4_K_M-GGUF --hf-file huihui-gemma-3n-e4b-it-abliterated-q4_k_m.gguf -c 2048
📄 许可证
本模型使用的许可证为 gemma。