本项目提供了 meta-llama/Meta-Llama-3.1-70B-Instruct 模型的 GGUF 格式文件,方便用户进行文本生成等相关操作。
🚀 快速开始
本项目的核心是提供 meta-llama/Meta-Llama-3.1-70B-Instruct 模型的 GGUF 格式文件,以满足不同用户在文本生成任务中的需求。
✨ 主要特性
- 多语言支持:支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语、泰语等多种语言。
- 量化类型丰富:包含 2 位、3 位、4 位、5 位、6 位、8 位等多种量化类型。
- 采用 GGUF 格式:GGUF 是 llama.cpp 团队于 2023 年 8 月 21 日推出的新格式,替代了不再受支持的 GGML 格式。
📚 详细文档
模型信息
属性 |
详情 |
模型名称 |
Meta-Llama-3.1-70B-Instruct-GGUF |
基础模型 |
meta-llama/Meta-Llama-3.1-70B-Instruct |
模型创建者 |
meta-llama |
量化者 |
MaziyarPanahi |
推理功能 |
否 |
任务类型 |
文本生成 |
关于 GGUF
GGUF 是 llama.cpp 团队在 2023 年 8 月 21 日引入的新格式,它替代了 GGML 格式,并且 llama.cpp 不再支持 GGML 格式。
以下是已知支持 GGUF 的客户端和库的不完全列表:
- llama.cpp:GGUF 的源项目,提供命令行界面和服务器选项。
- llama-cpp-python:一个支持 GPU 加速、LangChain 集成和 OpenAI 兼容 API 服务器的 Python 库。
- LM Studio:一款适用于 Windows 和 macOS(Silicon)的易用且强大的本地图形界面,支持 GPU 加速。截至 2023 年 11 月 27 日,Linux 版本处于测试阶段。
- text-generation-webui:使用最广泛的网页界面,具有许多功能和强大的扩展,支持 GPU 加速。
- KoboldCpp:一个功能齐全的网页界面,支持所有平台和 GPU 架构的 GPU 加速,尤其适合故事创作。
- GPT4All:一个免费开源的本地运行图形界面,支持 Windows、Linux 和 macOS,具备完整的 GPU 加速功能。
- LoLLMS Web UI:一个很棒的网页界面,具有许多有趣和独特的功能,包括一个完整的模型库,方便用户选择模型。
- Faraday.dev:一个美观易用的基于角色的聊天图形界面,适用于 Windows 和 macOS(Silicon 和 Intel),支持 GPU 加速。
- candle:一个注重性能的 Rust 机器学习框架,支持 GPU 加速,易于使用。
- ctransformers:一个支持 GPU 加速、LangChain 集成和 OpenAI 兼容 AI 服务器的 Python 库。截至 2023 年 11 月 27 日,ctransformers 已有很长时间未更新,不支持许多最新模型。
📄 许可证
文档中未提及相关许可证信息。
🔗 特别感谢
🙏 特别感谢 Georgi Gerganov 以及整个 llama.cpp 团队,是他们让这一切成为可能。