🚀 [MaziyarPanahi/Qwen2-7B-Instruct-GGUF]
[MaziyarPanahi/Qwen2-7B-Instruct-GGUF] 項目提供了 [Qwen/Qwen2-7B-Instruct] 模型的 GGUF 格式文件,可用於文本生成任務,為相關應用提供了更多選擇和便利。
🚀 快速開始
本項目的核心是提供 [Qwen/Qwen2-7B-Instruct] 模型的 GGUF 格式文件。GGUF 是一種新的模型文件格式,由 llama.cpp 團隊於 2023 年 8 月 21 日引入,它取代了不再被 llama.cpp 支持的 GGML 格式。
✨ 主要特性
模型信息
屬性 |
詳情 |
模型名稱 |
Qwen2-7B-Instruct-GGUF |
模型創建者 |
Qwen |
基礎模型 |
Qwen/Qwen2-7B-Instruct |
量化者 |
MaziyarPanahi |
模型類型 |
文本生成 |
格式 |
GGUF |
量化比特 |
2-bit、3-bit、4-bit、5-bit、6-bit、8-bit |
支持的客戶端和庫
GGUF 格式得到了許多客戶端和庫的支持,以下是一些已知支持 GGUF 的工具:
- llama.cpp:GGUF 的源項目,提供了命令行界面和服務器選項。
- llama-cpp-python:一個支持 GPU 加速、LangChain 集成和兼容 OpenAI API 服務器的 Python 庫。
- LM Studio:一個易於使用且功能強大的本地 GUI,支持 Windows 和 macOS(Silicon),具備 GPU 加速功能,Linux 版本截至 2023 年 11 月 27 日處於測試階段。
- text-generation-webui:最廣泛使用的 Web UI,具有許多功能和強大的擴展,支持 GPU 加速。
- KoboldCpp:一個功能齊全的 Web UI,支持所有平臺和 GPU 架構的 GPU 加速,特別適合用於故事創作。
- GPT4All:一個免費開源的本地運行 GUI,支持 Windows、Linux 和 macOS,具備完整的 GPU 加速功能。
- LoLLMS Web UI:一個很棒的 Web UI,具有許多有趣和獨特的功能,包括一個完整的模型庫,方便模型選擇。
- Faraday.dev:一個有吸引力且易於使用的基於角色的聊天 GUI,支持 Windows 和 macOS(Silicon 和 Intel),具備 GPU 加速功能。
- candle:一個專注於性能的 Rust ML 框架,支持 GPU 且易於使用。
- ctransformers:一個支持 GPU 加速、LangChain 集成和兼容 OpenAI AI 服務器的 Python 庫。需要注意的是,截至 2023 年 11 月 27 日,ctransformers 已經很長時間沒有更新,不支持許多最新的模型。
📚 詳細文檔
關於 GGUF
GGUF 是 llama.cpp 團隊在 2023 年 8 月 21 日引入的新格式,它取代了不再被 llama.cpp 支持的 GGML 格式。
🔧 技術細節
GGUF 格式的引入是為了更好地支持 llama.cpp 及相關項目的發展,它在性能和兼容性方面可能有一定的優化,為模型的使用和部署提供了更便捷的方式。
📄 許可證
文檔中未提及相關許可證信息。
🔗 特別感謝
🙏 特別感謝 Georgi Gerganov 以及整個 llama.cpp 團隊,是他們讓這一切成為可能。