🚀 NikolayKozloff/DeepSeek-R1-ReDistill-Qwen-7B-v1.1-Q8_0-GGUF
本模型通过 llama.cpp 借助 ggml.ai 的 GGUF-my-repo 空间,从 mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-7B-v1.1
转换为 GGUF 格式。有关该模型的更多详细信息,请参考 原始模型卡片。
🚀 快速开始
✨ 主要特性
- 模型类型:文本生成
- 基础模型:mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-7B-v1.1
- 训练状态:未进行训练
- 推理状态:支持推理
属性 |
详情 |
模型类型 |
文本生成 |
基础模型 |
mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-7B-v1.1 |
训练状态 |
未训练 |
推理状态 |
支持推理 |
许可证 |
MIT |
📦 安装指南
使用 Homebrew 安装 llama.cpp(适用于 Mac 和 Linux)
brew install llama.cpp
💻 使用示例
与 llama.cpp 结合使用
命令行界面(CLI)
llama-cli --hf-repo NikolayKozloff/DeepSeek-R1-ReDistill-Qwen-7B-v1.1-Q8_0-GGUF --hf-file deepseek-r1-redistill-qwen-7b-v1.1-q8_0.gguf -p "The meaning to life and the universe is"
服务器模式
llama-server --hf-repo NikolayKozloff/DeepSeek-R1-ReDistill-Qwen-7B-v1.1-Q8_0-GGUF --hf-file deepseek-r1-redistill-qwen-7b-v1.1-q8_0.gguf -c 2048
直接使用 Llama.cpp 仓库中的使用步骤
步骤 1:从 GitHub 克隆 llama.cpp
git clone https://github.com/ggerganov/llama.cpp
步骤 2:进入 llama.cpp 文件夹并使用 LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在 Linux 上使用英伟达 GPU 时使用 LLAMA_CUDA=1
)进行编译
cd llama.cpp && LLAMA_CURL=1 make
步骤 3:通过主二进制文件运行推理
./llama-cli --hf-repo NikolayKozloff/DeepSeek-R1-ReDistill-Qwen-7B-v1.1-Q8_0-GGUF --hf-file deepseek-r1-redistill-qwen-7b-v1.1-q8_0.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo NikolayKozloff/DeepSeek-R1-ReDistill-Qwen-7B-v1.1-Q8_0-GGUF --hf-file deepseek-r1-redistill-qwen-7b-v1.1-q8_0.gguf -c 2048
⚠️ 重要提示
你也可以直接通过 Llama.cpp 仓库中列出的 使用步骤 使用此检查点。
📄 许可证
本项目采用 MIT 许可证。