🚀 Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF
本項目將模型從 MBZUAI/LaMini-Flan-T5-248M
轉換為 GGUF 格式。藉助 llama.cpp 並通過 ggml.ai 的 GGUF-my-repo 空間完成轉換。若需瞭解該模型的更多詳細信息,請參考 原始模型卡片。
🚀 快速開始
本模型可配合 llama.cpp 使用,以下是具體的使用步驟。
📦 安裝指南
可通過 brew(適用於 Mac 和 Linux)安裝 llama.cpp:
brew install llama.cpp
💻 使用示例
基礎用法
使用 CLI 調用
llama-cli --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -p "The meaning to life and the universe is"
使用 Server 調用
llama-server --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -c 2048
高級用法
你也可以直接按照 Llama.cpp 倉庫中列出的 使用步驟 來使用此檢查點,具體步驟如下:
步驟 1:從 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步驟 2:進入 llama.cpp 文件夾並使用 LLAMA_CURL=1
標誌以及其他特定硬件標誌(例如,在 Linux 上使用英偉達 GPU 時設置 LLAMA_CUDA=1
)進行編譯
cd llama.cpp && LLAMA_CURL=1 make
步驟 3:通過主二進制文件運行推理
./llama-cli --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -c 2048
📄 許可證
本模型採用的許可證為 cc-by-nc-4.0
。
📋 模型信息
屬性 |
詳情 |
基礎模型 |
MBZUAI/LaMini-Flan-T5-248M |
語言 |
en |
許可證 |
cc-by-nc-4.0 |
任務類型 |
text2text-generation |
標籤 |
generated_from_trainer、instruction fine-tuning、llama-cpp、gguf-my-repo |