🚀 BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF
本項目將Abliterated Q4_0 - GGUF與更優的mmproj(視覺)選項(x - ray_alpha)相結合,為用戶帶來更流暢的體驗。該模型是通過llama.cpp,利用ggml.ai的GGUF - my - repo空間,從mlabonne/gemma-3-4b-it-abliterated
轉換為GGUF格式的。

模型信息
屬性 |
詳情 |
基礎模型 |
mlabonne/gemma-3-4b-it-abliterated、SicariusSicariiStuff/X-Ray_Alpha |
庫名稱 |
transformers |
許可證 |
gemma |
任務類型 |
image-text-to-text |
標籤 |
llama-cpp、gguf-my-repo |
🚀 快速開始
📦 安裝指南
通過brew安裝llama.cpp(適用於Mac和Linux):
brew install llama.cpp
💻 使用示例
基礎用法
可以通過命令行界面(CLI)或服務器模式使用該模型。
CLI模式
llama-cli --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -p "The meaning to life and the universe is"
服務器模式
llama-server --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -c 2048
高級用法
你也可以直接按照Llama.cpp倉庫中列出的使用步驟使用該檢查點。
步驟1:從GitHub克隆llama.cpp倉庫。
git clone https://github.com/ggerganov/llama.cpp
步驟2:進入llama.cpp文件夾,並使用LLAMA_CURL = 1
標誌以及其他特定硬件標誌(例如,在Linux上使用Nvidia GPU時使用LLAMA_CUDA = 1
)進行編譯。
cd llama.cpp && LLAMA_CURL=1 make
步驟3:通過主二進制文件運行推理。
./llama-cli --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo BernTheCreator/gemma-3-4b-it-abliterated-Q4_0-GGUF --hf-file gemma-3-4b-it-abliterated-q4_0.gguf -c 2048
📚 詳細文檔
更多關於該模型的詳細信息,請參考原始模型卡片。
📄 許可證
本項目使用gemma許可證。