🚀 s0mecode/Phi-4-mini-instruct-Q4_K_M-GGUF
本項目將模型從 microsoft/Phi-4-mini-instruct
轉換為 GGUF 格式,轉換借助了 llama.cpp 並通過 ggml.ai 的 GGUF-my-repo 空間完成。如需瞭解該模型的更多詳細信息,請參考 原始模型卡片。
🚀 快速開始
✨ 主要特性
- 支持多語言,包括阿拉伯語、中文、捷克語、丹麥語、荷蘭語、英語、芬蘭語、法語、德語、希伯來語、匈牙利語、意大利語、日語、韓語、挪威語、波蘭語、葡萄牙語、俄語、西班牙語、瑞典語、泰語、土耳其語和烏克蘭語。
- 屬於文本生成類型的模型。
- 標籤涵蓋 NLP、代碼、llama-cpp、gguf-my-repo 等。
📦 安裝指南
使用 Homebrew 安裝 llama.cpp(適用於 Mac 和 Linux)
brew install llama.cpp
💻 使用示例
基礎用法
可以通過 llama.cpp 的命令行界面(CLI)或服務器模式來使用該模型。
CLI 模式
llama-cli --hf-repo s0mecode/Phi-4-mini-instruct-Q4_K_M-GGUF --hf-file phi-4-mini-instruct-q4_k_m.gguf -p "The meaning to life and the universe is"
服務器模式
llama-server --hf-repo s0mecode/Phi-4-mini-instruct-Q4_K_M-GGUF --hf-file phi-4-mini-instruct-q4_k_m.gguf -c 2048
高級用法
你也可以按照 Llama.cpp 倉庫中列出的 使用步驟 直接使用該檢查點。
步驟 1:從 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟 2:進入 llama.cpp 文件夾並使用 LLAMA_CURL=1
標誌以及其他特定硬件標誌進行編譯(例如,在 Linux 上使用英偉達 GPU 時設置 LLAMA_CUDA=1
)
cd llama.cpp && LLAMA_CURL=1 make
步驟 3:通過主二進制文件運行推理
./llama-cli --hf-repo s0mecode/Phi-4-mini-instruct-Q4_K_M-GGUF --hf-file phi-4-mini-instruct-q4_k_m.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo s0mecode/Phi-4-mini-instruct-Q4_K_M-GGUF --hf-file phi-4-mini-instruct-q4_k_m.gguf -c 2048
📄 許可證
本項目採用 MIT 許可證,詳情請見 許可證鏈接。
📚 詳細文檔
屬性 |
詳情 |
模型類型 |
文本生成 |
基礎模型 |
microsoft/Phi-4-mini-instruct |
支持語言 |
阿拉伯語、中文、捷克語、丹麥語、荷蘭語、英語、芬蘭語、法語、德語、希伯來語、匈牙利語、意大利語、日語、韓語、挪威語、波蘭語、葡萄牙語、俄語、西班牙語、瑞典語、泰語、土耳其語、烏克蘭語 |