本項目提供了 meta-llama/Meta-Llama-3.1-70B-Instruct 模型的 GGUF 格式文件,方便用戶進行文本生成等相關操作。
🚀 快速開始
本項目的核心是提供 meta-llama/Meta-Llama-3.1-70B-Instruct 模型的 GGUF 格式文件,以滿足不同用戶在文本生成任務中的需求。
✨ 主要特性
- 多語言支持:支持英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語、泰語等多種語言。
- 量化類型豐富:包含 2 位、3 位、4 位、5 位、6 位、8 位等多種量化類型。
- 採用 GGUF 格式:GGUF 是 llama.cpp 團隊於 2023 年 8 月 21 日推出的新格式,替代了不再受支持的 GGML 格式。
📚 詳細文檔
模型信息
屬性 |
詳情 |
模型名稱 |
Meta-Llama-3.1-70B-Instruct-GGUF |
基礎模型 |
meta-llama/Meta-Llama-3.1-70B-Instruct |
模型創建者 |
meta-llama |
量化者 |
MaziyarPanahi |
推理功能 |
否 |
任務類型 |
文本生成 |
關於 GGUF
GGUF 是 llama.cpp 團隊在 2023 年 8 月 21 日引入的新格式,它替代了 GGML 格式,並且 llama.cpp 不再支持 GGML 格式。
以下是已知支持 GGUF 的客戶端和庫的不完全列表:
- llama.cpp:GGUF 的源項目,提供命令行界面和服務器選項。
- llama-cpp-python:一個支持 GPU 加速、LangChain 集成和 OpenAI 兼容 API 服務器的 Python 庫。
- LM Studio:一款適用於 Windows 和 macOS(Silicon)的易用且強大的本地圖形界面,支持 GPU 加速。截至 2023 年 11 月 27 日,Linux 版本處於測試階段。
- text-generation-webui:使用最廣泛的網頁界面,具有許多功能和強大的擴展,支持 GPU 加速。
- KoboldCpp:一個功能齊全的網頁界面,支持所有平臺和 GPU 架構的 GPU 加速,尤其適合故事創作。
- GPT4All:一個免費開源的本地運行圖形界面,支持 Windows、Linux 和 macOS,具備完整的 GPU 加速功能。
- LoLLMS Web UI:一個很棒的網頁界面,具有許多有趣和獨特的功能,包括一個完整的模型庫,方便用戶選擇模型。
- Faraday.dev:一個美觀易用的基於角色的聊天圖形界面,適用於 Windows 和 macOS(Silicon 和 Intel),支持 GPU 加速。
- candle:一個注重性能的 Rust 機器學習框架,支持 GPU 加速,易於使用。
- ctransformers:一個支持 GPU 加速、LangChain 集成和 OpenAI 兼容 AI 服務器的 Python 庫。截至 2023 年 11 月 27 日,ctransformers 已有很長時間未更新,不支持許多最新模型。
📄 許可證
文檔中未提及相關許可證信息。
🔗 特別感謝
🙏 特別感謝 Georgi Gerganov 以及整個 llama.cpp 團隊,是他們讓這一切成為可能。