🚀 KimChen/c4ai-command-r-08-2024-GGUF
本项目将模型从 CohereForAI/c4ai-command-r-08-2024
转换为 GGUF 格式,使用的工具是 llama.cpp。如需了解该模型的更多详细信息,请参考 原始模型卡片。
🚀 快速开始
✨ 主要特性
- 支持多种语言,包括英语、法语、德语、西班牙语、意大利语、葡萄牙语、日语、韩语、中文和阿拉伯语。
- 采用 CC BY-NC 4.0 许可证。
- 基于
CohereForAI/c4ai-command-r-08-2024
基础模型转换而来。
📦 安装指南
通过 Homebrew 安装 llama.cpp(适用于 Mac 和 Linux):
brew install llama.cpp
💻 使用示例
基础用法
使用命令行界面(CLI)进行推理:
llama-cli --hf-repo KimChen/c4ai-command-r-08-2024-GGUF --hf-file c4ai-command-r-08-2024.gguf -p "The meaning to life and the universe is"
使用服务器模式进行推理:
llama-server --hf-repo KimChen/c4ai-command-r-08-2024-GGUF --hf-file c4ai-command-r-08-2024.gguf -c 2048
高级用法
你也可以按照 Llama.cpp 仓库中列出的 使用步骤 直接使用该检查点:
步骤 1:从 GitHub 克隆 llama.cpp 仓库:
git clone https://github.com/ggerganov/llama.cpp.git
步骤 2:进入 llama.cpp 文件夹,并使用 LLAMA_CURL=1
标志以及其他特定硬件标志(例如,在 Linux 上使用 Nvidia GPU 时使用 LLAMA_CUDA=1
)进行编译:
cd llama.cpp && LLAMA_CURL=1 make
步骤 3:通过主二进制文件运行推理:
./llama-cli --hf-repo KimChen/c4ai-command-r-08-2024-GGUF --hf-file c4ai-command-r-08-2024-GGUF.gguf -p "The meaning to life and the universe is"
或者
./llama-server --hf-repo KimChen/c4ai-command-r-08-2024-GGUF --hf-file c4ai-command-r-08-2024-GGUF.gguf -c 2048
📄 许可证
本项目采用 CC BY-NC 4.0 许可证。
额外信息
表单提交说明
通过提交此表单,即表示您同意 许可协议,并确认您提供的信息将按照 Cohere 的 隐私政策 进行收集、使用和共享。
表单字段
属性 |
详情 |
名称 |
文本输入 |
所属机构 |
文本输入 |
国家 |
下拉选择,包含众多国家选项 |
是否接收 C4AI 和 Cohere 研究、活动、产品和服务的电子邮件更新 |
下拉选择,选项为“是”和“否” |
我同意仅将此模型用于非商业用途 |
复选框 |
量化信息
此模型由 KimChen 进行量化。
任务标签
文本生成。
基础模型
CohereForAI/c4ai-command-r-08-2024
。