🚀 NikolayKozloff/gemma-3-12b-it-Q5_K_S-GGUF
本項目將模型從 google/gemma-3-12b-it
轉換為 GGUF 格式。藉助 llama.cpp 和 ggml.ai 的 GGUF-my-repo 空間完成轉換。如需瞭解該模型的更多詳細信息,請參考 原始模型卡片。
🚀 快速開始
本模型可通過 llama.cpp 進行使用。下面將介紹使用 llama.cpp 的具體步驟。
📦 安裝指南
可通過 brew(適用於 Mac 和 Linux)安裝 llama.cpp:
brew install llama.cpp
💻 使用示例
基礎用法
可以通過 CLI 或 Server 調用模型。
CLI 方式
llama-cli --hf-repo NikolayKozloff/gemma-3-12b-it-Q5_K_S-GGUF --hf-file gemma-3-12b-it-q5_k_s.gguf -p "The meaning to life and the universe is"
Server 方式
llama-server --hf-repo NikolayKozloff/gemma-3-12b-it-Q5_K_S-GGUF --hf-file gemma-3-12b-it-q5_k_s.gguf -c 2048
高級用法
你也可以直接按照 Llama.cpp 倉庫中列出的 使用步驟 來使用此檢查點。
步驟 1:從 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟 2:進入 llama.cpp 文件夾並使用 LLAMA_CURL=1
標誌以及其他特定於硬件的標誌(例如,在 Linux 上使用英偉達 GPU 時使用 LLAMA_CUDA=1
)進行編譯
cd llama.cpp && LLAMA_CURL=1 make
步驟 3:通過主二進制文件運行推理
./llama-cli --hf-repo NikolayKozloff/gemma-3-12b-it-Q5_K_S-GGUF --hf-file gemma-3-12b-it-q5_k_s.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo NikolayKozloff/gemma-3-12b-it-Q5_K_S-GGUF --hf-file gemma-3-12b-it-q5_k_s.gguf -c 2048
📄 許可證
本項目使用的許可證為 gemma。
📋 模型信息
屬性 |
詳情 |
基礎模型 |
google/gemma-3-12b-it |
庫名稱 |
transformers |
許可證 |
gemma |
任務類型 |
image-text-to-text |
標籤 |
llama-cpp、gguf-my-repo |
⚠️ 重要提示
若要在 Hugging Face 上使用 Gemma,你需要查看並同意 Google 的使用許可。請確保你已登錄 Hugging Face,然後點擊下方按鈕。請求將立即處理。
💡 使用建議
點擊下面的按鈕確認許可:Acknowledge license