🚀 [MaziyarPanahi/Qwen2-7B-Instruct-GGUF]
[MaziyarPanahi/Qwen2-7B-Instruct-GGUF] 项目提供了 [Qwen/Qwen2-7B-Instruct] 模型的 GGUF 格式文件,可用于文本生成任务,为相关应用提供了更多选择和便利。
🚀 快速开始
本项目的核心是提供 [Qwen/Qwen2-7B-Instruct] 模型的 GGUF 格式文件。GGUF 是一种新的模型文件格式,由 llama.cpp 团队于 2023 年 8 月 21 日引入,它取代了不再被 llama.cpp 支持的 GGML 格式。
✨ 主要特性
模型信息
属性 |
详情 |
模型名称 |
Qwen2-7B-Instruct-GGUF |
模型创建者 |
Qwen |
基础模型 |
Qwen/Qwen2-7B-Instruct |
量化者 |
MaziyarPanahi |
模型类型 |
文本生成 |
格式 |
GGUF |
量化比特 |
2-bit、3-bit、4-bit、5-bit、6-bit、8-bit |
支持的客户端和库
GGUF 格式得到了许多客户端和库的支持,以下是一些已知支持 GGUF 的工具:
- llama.cpp:GGUF 的源项目,提供了命令行界面和服务器选项。
- llama-cpp-python:一个支持 GPU 加速、LangChain 集成和兼容 OpenAI API 服务器的 Python 库。
- LM Studio:一个易于使用且功能强大的本地 GUI,支持 Windows 和 macOS(Silicon),具备 GPU 加速功能,Linux 版本截至 2023 年 11 月 27 日处于测试阶段。
- text-generation-webui:最广泛使用的 Web UI,具有许多功能和强大的扩展,支持 GPU 加速。
- KoboldCpp:一个功能齐全的 Web UI,支持所有平台和 GPU 架构的 GPU 加速,特别适合用于故事创作。
- GPT4All:一个免费开源的本地运行 GUI,支持 Windows、Linux 和 macOS,具备完整的 GPU 加速功能。
- LoLLMS Web UI:一个很棒的 Web UI,具有许多有趣和独特的功能,包括一个完整的模型库,方便模型选择。
- Faraday.dev:一个有吸引力且易于使用的基于角色的聊天 GUI,支持 Windows 和 macOS(Silicon 和 Intel),具备 GPU 加速功能。
- candle:一个专注于性能的 Rust ML 框架,支持 GPU 且易于使用。
- ctransformers:一个支持 GPU 加速、LangChain 集成和兼容 OpenAI AI 服务器的 Python 库。需要注意的是,截至 2023 年 11 月 27 日,ctransformers 已经很长时间没有更新,不支持许多最新的模型。
📚 详细文档
关于 GGUF
GGUF 是 llama.cpp 团队在 2023 年 8 月 21 日引入的新格式,它取代了不再被 llama.cpp 支持的 GGML 格式。
🔧 技术细节
GGUF 格式的引入是为了更好地支持 llama.cpp 及相关项目的发展,它在性能和兼容性方面可能有一定的优化,为模型的使用和部署提供了更便捷的方式。
📄 许可证
文档中未提及相关许可证信息。
🔗 特别感谢
🙏 特别感谢 Georgi Gerganov 以及整个 llama.cpp 团队,是他们让这一切成为可能。