🚀 Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF
本项目将模型从 MBZUAI/LaMini-Flan-T5-248M
转换为 GGUF 格式。借助 llama.cpp 并通过 ggml.ai 的 GGUF-my-repo 空间完成转换。若需了解该模型的更多详细信息,请参考 原始模型卡片。
🚀 快速开始
本模型可配合 llama.cpp 使用,以下是具体的使用步骤。
📦 安装指南
可通过 brew(适用于 Mac 和 Linux)安装 llama.cpp:
brew install llama.cpp
💻 使用示例
基础用法
使用 CLI 调用
llama-cli --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -p "The meaning to life and the universe is"
使用 Server 调用
llama-server --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -c 2048
高级用法
你也可以直接按照 Llama.cpp 仓库中列出的 使用步骤 来使用此检查点,具体步骤如下:
步骤 1:从 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步骤 2:进入 llama.cpp 文件夹并使用 LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在 Linux 上使用英伟达 GPU 时设置 LLAMA_CUDA=1
)进行编译
cd llama.cpp && LLAMA_CURL=1 make
步骤 3:通过主二进制文件运行推理
./llama-cli --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo Felladrin/LaMini-Flan-T5-248M-Q5_K_S-GGUF --hf-file lamini-flan-t5-248m-q5_k_s-imat.gguf -c 2048
📄 许可证
本模型采用的许可证为 cc-by-nc-4.0
。
📋 模型信息
属性 |
详情 |
基础模型 |
MBZUAI/LaMini-Flan-T5-248M |
语言 |
en |
许可证 |
cc-by-nc-4.0 |
任务类型 |
text2text-generation |
标签 |
generated_from_trainer、instruction fine-tuning、llama-cpp、gguf-my-repo |