模型简介
模型特点
模型能力
使用案例
🚀 Meta-Llama-3-8B GGUF模型
Meta-Llama-3-8B GGUF模型是Meta开发的大语言模型,具有多种格式以适应不同的硬件和使用场景。这些模型在计算速度、内存使用和精度方面各有优势,能满足商业和研究等多种需求。
🚀 快速开始
选择合适的模型格式
选择正确的模型格式取决于你的硬件能力和内存限制。
BF16(Brain Float 16)– 若支持BF16加速则使用
- 一种16位浮点格式,专为更快的计算而设计,同时保持良好的精度。
- 提供与FP32 相似的动态范围,但内存使用更低。
- 若你的硬件支持BF16加速(查看设备规格),则推荐使用。
- 与FP32相比,适用于高性能推理且内存占用减少。
📌 使用BF16的情况: ✔ 你的硬件具有原生BF16支持(例如,较新的GPU、TPU)。 ✔ 你希望在节省内存的同时获得更高的精度。 ✔ 你计划将模型重新量化为其他格式。
📌 避免使用BF16的情况: ❌ 你的硬件不支持BF16(可能会回退到FP32并运行较慢)。 ❌ 你需要与缺乏BF16优化的旧设备兼容。
F16(Float 16)– 比BF16更广泛支持
- 一种16位浮点格式,精度较高,但取值范围比BF16小。
- 适用于大多数支持FP16加速的设备(包括许多GPU和一些CPU)。
- 数值精度略低于BF16,但通常足以进行推理。
📌 使用F16的情况: ✔ 你的硬件支持FP16但不支持BF16。 ✔ 你需要在速度、内存使用和准确性之间取得平衡。 ✔ 你在GPU或其他针对FP16计算优化的设备上运行。
📌 避免使用F16的情况: ❌ 你的设备缺乏原生FP16支持(可能运行比预期慢)。 ❌ 你有内存限制。
量化模型(Q4_K、Q6_K、Q8等)– 用于CPU和低显存推理
量化在尽可能保持准确性的同时减少模型大小和内存使用。
- 低比特模型(Q4_K) → 最适合最小的内存使用,可能精度较低。
- 高比特模型(Q6_K、Q8_0) → 准确性更好,需要更多内存。
📌 使用量化模型的情况: ✔ 你在CPU上运行推理,需要优化的模型。 ✔ 你的设备显存较低,无法加载全精度模型。 ✔ 你希望在保持合理准确性的同时减少内存占用。
📌 避免使用量化模型的情况: ❌ 你需要最高的准确性(全精度模型更适合)。 ❌ 你的硬件有足够的显存用于更高精度的格式(BF16/F16)。
极低比特量化(IQ3_XS、IQ3_S、IQ3_M、Q4_K、Q4_0)
这些模型针对极端内存效率进行了优化,非常适合低功耗设备或大规模部署,其中内存是关键限制因素。
- IQ3_XS:超低比特量化(3位),具有极高的内存效率。
- 用例:最适合超低内存设备,即使Q4_K也太大。
- 权衡:与高比特量化相比,准确性较低。
- IQ3_S:小块大小,实现最大内存效率。
- 用例:最适合低内存设备,其中IQ3_XS过于激进。
- IQ3_M:中等块大小,比IQ3_S具有更好的准确性。
- 用例:适用于低内存设备,其中IQ3_S过于受限。
- Q4_K:4位量化,具有逐块优化以提高准确性。
- 用例:最适合低内存设备,其中Q6_K太大。
- Q4_0:纯4位量化,针对ARM设备进行了优化。
- 用例:最适合低内存环境。
- 为了更好的准确性,优先选择IQ4_NL。
模型格式选择总结表
属性 | 详情 |
---|---|
模型格式 | BF16、F16、量化模型(Q4_K、Q6_K、Q8等)、极低比特量化(IQ3_XS、IQ3_S、IQ3_M、Q4_K、Q4_0) |
精度 | BF16最高,F16高,量化模型中等或低 |
内存使用 | BF16和F16高,量化模型低 |
设备要求 | BF16:支持BF16的GPU/CPU;F16:支持FP16的设备;量化模型:CPU或低显存设备;极低比特量化:超低内存或ARM设备 |
最佳用例 | BF16:高速推理且内存减少;F16:BF16不可用时的GPU推理;量化模型:内存受限环境;极低比特量化:极端内存效率 |
包含的文件及详情
Meta-Llama-3-8B-bf16.gguf
:模型权重保存为BF16。如果你想将模型重新量化为不同格式,请使用此文件。如果你的设备支持BF16加速,则最佳。Meta-Llama-3-8B-f16.gguf
:模型权重存储为F16。如果你的设备支持FP16,特别是BF16不可用时,请使用此文件。Meta-Llama-3-8B-bf16-q8_0.gguf
:输出和嵌入保持为BF16。所有其他层量化为Q8_0。如果你的设备支持BF16,并且你想要量化版本,请使用此文件。Meta-Llama-3-8B-f16-q8_0.gguf
:输出和嵌入保持为F16。所有其他层量化为Q8_0。Meta-Llama-3-8B-q4_k.gguf
:输出和嵌入量化为Q8_0。所有其他层量化为Q4_K。适合内存有限的CPU推理。Meta-Llama-3-8B-q4_k_s.gguf
:最小的Q4_K变体,以准确性为代价使用更少的内存。最适合极低内存设置。Meta-Llama-3-8B-q6_k.gguf
:输出和嵌入量化为Q8_0。所有其他层量化为Q6_K。Meta-Llama-3-8B-q8_0.gguf
:完全Q8量化的模型,以获得更好的准确性。需要更多内存,但提供更高的精度。Meta-Llama-3-8B-iq3_xs.gguf
:IQ3_XS量化,针对极端内存效率进行了优化。最适合超低内存设备。Meta-Llama-3-8B-iq3_m.gguf
:IQ3_M量化,提供中等块大小以提高准确性。适用于低内存设备。Meta-Llama-3-8B-q4_0.gguf
:纯Q4_0量化,针对ARM设备进行了优化。最适合低内存环境。优先选择IQ4_NL以获得更好的准确性。
测试模型
如果你发现这些模型有用,请点击点赞 ❤。另外,如果你能测试我的网络监控助手,我将不胜感激👉 网络监控助手。 💬 点击聊天图标(主页面和仪表盘页面的右下角)。选择一个大语言模型;在大语言模型类型之间切换:TurboLLM -> FreeLLM -> TestLLM。
正在测试的内容
我正在针对我的网络监控服务进行函数调用实验。使用小型开源模型。我关注的问题是“模型可以多小仍能正常工作”。
- 🟡 TestLLM:使用llama.cpp在CPU虚拟机的6个线程上运行当前测试模型(加载大约需要15秒。推理速度相当慢,并且一次只处理一个用户提示 — 仍在努力扩展!)。如果你好奇,我很乐意分享它的工作原理!
- 🟢 TurboLLM:使用gpt-4o-mini,速度快!注意:由于OpenAI模型价格昂贵,令牌有限,但你可以登录或下载免费的网络监控代理以获得更多令牌,或者使用TestLLM。
- 🔵 HugLLM:运行开源的Hugging Face模型,速度快,运行小型模型(≈8B),因此质量较低。获得2倍更多的令牌(取决于Hugging Face API的可用性)。
✨ 主要特性
模型详情
Meta开发并发布了Meta Llama 3系列大语言模型(LLM),这是一组预训练和指令微调的生成式文本模型,有8B和70B两种规模。Llama 3指令微调模型针对对话用例进行了优化,在常见行业基准测试中优于许多可用的开源聊天模型。此外,在开发这些模型时,我们非常注重优化实用性和安全性。
- 模型开发者:Meta
- 变体:Llama 3有两种规模 — 8B和70B参数 — 包括预训练和指令微调变体。
- 输入:模型仅接受文本输入。
- 输出:模型仅生成文本和代码。
- 模型架构:Llama 3是一种自回归语言模型,使用优化的Transformer架构。微调版本使用监督微调(SFT)和基于人类反馈的强化学习(RLHF)来符合人类对实用性和安全性的偏好。
模型参数表
属性 | 详情 |
---|---|
模型类型 | Llama 3(8B和70B) |
训练数据 | 公开可用的在线数据的新组合 |
参数 | 8B和70B |
上下文长度 | 8k |
GQA | 是 |
令牌计数 | 15T+ |
知识截止日期 | 8B:2023年3月;70B:2023年12月 |
模型发布信息
- 模型发布日期:2024年4月18日。
- 状态:这是一个基于离线数据集训练的静态模型。随着我们根据社区反馈改进模型安全性,未来将发布微调模型的新版本。
- 许可证:可在以下链接获取自定义商业许可证:https://llama.meta.com/llama3/license
- 反馈渠道:有关模型的问题或评论可在模型README中找到提供反馈或评论的说明。有关生成参数和如何在应用程序中使用Llama 3的技术信息,请访问此处。
预期用途
- 预期用例:Llama 3旨在用于英语的商业和研究用途。指令微调模型适用于类似助手的聊天,而预训练模型可用于各种自然语言生成任务。
- 超出范围的用途:以任何违反适用法律法规(包括贸易合规法律)的方式使用。以《可接受使用政策》和《Llama 3社区许可证》禁止的任何其他方式使用。使用英语以外的语言。
- 注意事项:开发者可以根据《Llama 3社区许可证》和《可接受使用政策》对Llama 3模型进行微调以支持英语以外的语言。
硬件和软件
- 训练因素:我们使用自定义训练库、Meta的研究超级集群和生产集群进行预训练。微调、注释和评估也在第三方云计算上进行。
- 碳足迹:预训练在H100 - 80GB类型的硬件上累计使用了770万个GPU小时的计算资源(TDP为700W)。估计总排放量为2290 tCO2eq,其中100%由Meta的可持续发展计划抵消。
训练资源消耗表
属性 | Llama 3 8B | Llama 3 70B | 总计 |
---|---|---|---|
时间(GPU小时) | 130万 | 640万 | 770万 |
功耗(W) | 700 | 700 | - |
碳排放(tCO2eq) | 390 | 1900 | 2290 |
训练数据
- 概述:Llama 3在超过15万亿个来自公开可用来源的令牌数据上进行了预训练。微调数据包括公开可用的指令数据集以及超过1000万个经过人工注释的示例。预训练和微调数据集均不包括Meta用户数据。
- 数据新鲜度:预训练数据的截止日期分别为8B模型的2023年3月和70B模型的2023年12月。
基准测试
在本节中,我们报告了Llama 3模型在标准自动基准测试中的结果。对于所有评估,我们使用内部评估库。有关方法的详细信息,请参阅此处。
基础预训练模型
类别 | 基准测试 | Llama 3 8B | Llama2 7B | Llama2 13B | Llama 3 70B | Llama2 70B |
---|---|---|---|---|---|---|
通用 | MMLU(5-shot) | 66.6 | 45.7 | 53.8 | 79.5 | 69.7 |
通用 | AGIEval英语(3 - 5 shot) | 45.9 | 28.8 | 38.7 | 63.0 | 54.8 |
通用 | CommonSenseQA(7-shot) | 72.6 | 57.6 | 67.6 | 83.8 | 78.7 |
通用 | Winogrande(5-shot) | 76.1 | 73.3 | 75.4 | 83.1 | 81.8 |
通用 | BIG - Bench Hard(3-shot,CoT) | 61.1 | 38.1 | 47.0 | 81.3 | 65.7 |
通用 | ARC - Challenge(25-shot) | 78.6 | 53.7 | 67.6 | 93.0 | 85.3 |
知识推理 | TriviaQA - Wiki(5-shot) | 78.5 | 72.1 | 79.6 | 89.7 | 87.5 |
阅读理解 | SQuAD(1-shot) | 76.4 | 72.2 | 72.1 | 85.6 | 82.6 |
阅读理解 | QuAC(1-shot,F1) | 44.4 | 39.6 | 44.9 | 51.1 | 49.4 |
阅读理解 | BoolQ(0-shot) | 75.7 | 65.5 | 66.9 | 79.0 | 73.1 |
阅读理解 | DROP(3-shot,F1) | 58.4 | 37.9 | 49.8 | 79.7 | 70.2 |
指令微调模型
基准测试 | Llama 3 8B | Llama 2 7B | Llama 2 13B | Llama 3 70B | Llama 2 70B |
---|---|---|---|---|---|
MMLU(5-shot) | 68.4 | 34.1 | 47.8 | 82.0 | 52.9 |
GPQA(0-shot) | 34.2 | 21.7 | 22.3 | 39.5 | 21.0 |
HumanEval(0-shot) | 62.2 | 7.9 | 14.0 | 81.7 | 25.6 |
GSM - 8K(8-shot,CoT) | 79.6 | 25.7 | 77.4 | 93.0 | 57.5 |
MATH(4-shot,CoT) | 30.0 | 3.8 | 6.7 | 50.4 | 11.6 |
责任与安全
我们相信开放的人工智能方法能够带来更好、更安全的产品,加速创新,并扩大整体市场。我们致力于负责任的人工智能开发,并采取了一系列措施来限制滥用和危害,支持开源社区。 基础模型是功能广泛的技术,旨在用于各种应用。它们并非旨在满足所有开发者对所有用例的安全级别偏好,因为这些偏好本质上会因不同应用而异。 相反,负责任的大语言模型应用部署是通过在应用开发的整个过程中实施一系列安全最佳实践来实现的,从模型预训练、微调,到部署包含保障措施的系统,以根据具体用例和受众量身定制安全需求。
作为Llama 3发布的一部分,我们更新了《负责任使用指南》,以概述开发者为其应用实施模型和系统级安全的步骤和最佳实践。我们还提供了一系列资源,包括Meta Llama Guard 2和Code Shield保障措施。这些工具已被证明能大幅降低大语言模型系统的残余风险,同时保持较高的实用性。我们鼓励开发者根据自身需求调整和部署这些保障措施,并提供了参考实现供你开始使用。
Llama 3 - Instruct
正如《负责任使用指南》中所述,模型实用性和模型对齐之间的权衡可能不可避免。开发者应根据具体用例和受众,谨慎权衡对齐和实用性的好处。开发者在使用Llama模型时应注意残余风险,并根据需要利用额外的安全工具,以达到适合其用例的安全标准。
- 安全:对于我们的指令微调模型,我们进行了广泛的红队测试、对抗性评估,并实施了安全缓解技术,以降低残余风险。与任何大语言模型一样,残余风险可能仍然存在,我们建议开发者在其用例的背景下评估这些风险。同时,我们正在与社区合作,使人工智能安全基准标准透明、严格且可解释。
- 拒绝回答:除了残余风险,我们非常重视模型对良性提示的拒绝回答情况。过度拒绝不仅会影响用户体验,在某些情况下甚至可能有害。我们听取了开发者社区的反馈,并改进了微调过程,以确保Llama 3比Llama 2更不可能错误地拒绝回答提示。我们建立了内部基准并开发了缓解措施,以限制错误拒绝,使Llama 3成为我们迄今为止最实用的模型。
负责任的发布
除了上述负责任使用的考虑因素外,我们遵循了严格的流程,在做出发布决定之前,需要采取额外措施来防止滥用和应对关键风险。
- 滥用:如果你访问或使用Llama 3,你同意遵守《可接受使用政策》。该政策的最新版本可在https://llama.meta.com/llama3/use-policy/找到。
- 关键风险
- CBRNE(化学、生物、放射性、核和高当量爆炸物):我们对模型在这方面的安全性进行了双重评估:
- 在模型训练期间进行迭代测试,以评估与CBRNE威胁和其他对抗性风险相关的响应安全性。
- 邀请外部CBRNE专家进行提升测试,评估模型准确提供专家知识并减少潜在CBRNE滥用障碍的能力,参考不使用模型时通过网络搜索所能达到的效果。
- 网络安全:我们使用Meta的网络安全评估套件CyberSecEval对Llama 3进行了评估,衡量Llama 3作为编码助手时建议不安全代码的倾向,以及Llama 3响应协助进行网络攻击请求的倾向,其中攻击由行业标准MITRE ATT&CK网络攻击本体定义。在我们的不安全编码和网络攻击协助测试中,Llama 3的表现与具有同等编码能力的模型处于相同范围或更安全。
- 儿童安全:我们使用专家团队进行了儿童安全风险评估,以评估模型产生可能导致儿童安全风险的输出的能力,并通过微调提供必要和适当的风险缓解建议。我们利用这些专家红队测试来扩展我们在Llama 3模型开发过程中评估基准的覆盖范围。对于Llama 3,我们使用基于目标的方法进行了新的深入测试,以评估模型在多个攻击向量上的风险。我们还与内容专家合作进行红队测试,评估潜在违规内容,同时考虑特定市场的细微差别或经验。
- CBRNE(化学、生物、放射性、核和高当量爆炸物):我们对模型在这方面的安全性进行了双重评估:
社区
生成式人工智能安全需要专业知识和工具,我们相信开放社区的力量能够加速其发展。我们是开放联盟的积极成员,包括AI Alliance、Partnership in AI和MLCommons,积极为安全标准化和透明度做出贡献。我们鼓励社区采用MLCommons概念验证评估等分类法,以促进安全和内容评估的协作和透明度。我们的Purple Llama工具已开源供社区使用,并广泛分发给包括云服务提供商在内的生态系统合作伙伴。我们鼓励社区为我们的GitHub仓库做出贡献。 最后,我们建立了一系列资源,包括输出报告机制和漏洞赏金计划,以在社区的帮助下不断改进Llama技术。
🔧 技术细节
伦理考虑和局限性
Llama 3的核心价值观是开放性、包容性和实用性。它旨在为所有人服务,并适用于广泛的用例。因此,它设计为对不同背景、经验和观点的人都可访问。Llama 3以用户的实际情况和需求为出发点,不插入不必要的判断或规范性内容,同时认识到即使在某些情况下可能存在问题的内容,在其他情况下也可能有价值。它尊重所有用户的尊严和自主权,特别是在推动创新和进步的自由思想和表达价值观方面。 然而,Llama 3是一项新技术,与任何新技术一样,其使用存在风险。到目前为止进行的测试均使用英语,且无法涵盖所有场景。因此,与所有大语言模型一样,Llama 3的潜在输出无法提前预测,模型在某些情况下可能会对用户提示产生不准确、有偏见或其他令人反感的响应。因此,在部署任何Llama 3模型的应用程序之前,开发者应针对其特定应用进行安全测试和微调。正如《负责任使用指南》中所述,我们建议将Purple Llama解决方案纳入你的工作流程,特别是Llama Guard,它提供了一个基础模型来过滤输入和输出提示,在模型级安全的基础上增加系统级安全。 请参阅《负责任使用指南》,可在http://llama.meta.com/responsible-use-guide获取。
引用说明
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url = {https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
贡献者
Aaditya Singh; Aaron Grattafiori; Abhimanyu Dubey; Abhinav Jauhri; Abhinav Pandey; Abhishek Kadian; Adam Kelsey; Adi Gangidi; Ahmad Al-Dahle; Ahuva Goldstand; Aiesha Letman; Ajay Menon; Akhil Mathur; Alan Schelten; Alex Vaughan; Amy Yang; Andrei Lupu; Andres Alvarado; Andrew Gallagher; Andrew Gu; Andrew Ho; Andrew Poulton; Andrew Ryan; Angela Fan; Ankit Ramchandani; Anthony Hartshorn; Archi Mitra; Archie Sravankumar; Artem Korenev; Arun Rao; Ashley Gabriel; Ashwin Bharambe; Assaf Eisenman; Aston Zhang; Aurelien Rodriguez; Austen Gregerson; Ava Spataru; Baptiste Roziere; Ben Maurer; Benjamin Leonhardi; Bernie Huang; Bhargavi Paranjape; Bing Liu; Binh Tang; Bobbie Chern; Brani Stojkovic; Brian Fuller; Catalina Mejia Arenas; Chao Zhou; Charlotte Caucheteux; Chaya Nayak; Ching-Hsiang Chu; Chloe Bi; Chris Cai; Chris Cox; Chris Marra; Chris McConnell; Christian Keller; Christoph Feichtenhofer; Christophe Touret; Chunyang Wu; Corinne Wong; Cristian Canton Ferrer; Damien Allonsius; Daniel Kreymer; Daniel Haziza; Daniel Li; Danielle Pintz; Danny Livshits; Danny Wyatt; David Adkins; David Esiobu; David Xu; Davide Testuggine; Delia David; Devi Parikh; Dhruv Choudhary; Dhruv Mahajan; Diana Liskovich; Diego Garcia-Olano; Diego Perino; Dieuwke Hupkes; Dingkang Wang; Dustin Holland; Egor Lakomkin; Elina Lobanova; Xiaoqing Ellen Tan; Emily Dinan; Eric Smith; Erik Brinkman; Esteban Arcaute; Filip Radenovic; Firat Ozgenel; Francesco Caggioni; Frank Seide; Frank Zhang; Gabriel Synnaeve; Gabriella Schwarz; Gabrielle Lee; Gada Badeer; Georgia Anderson; Graeme Nail; Gregoire Mialon; Guan Pang; Guillem Cucurell; Hailey Nguyen; Hannah Korevaar; Hannah Wang; Haroun Habeeb; Harrison Rudolph; Henry Aspegren; Hu Xu; Hugo Touvron; Iga Kozlowska; Igor Molybog; Igor Tufanov; Iliyan Zarov; Imanol Arrieta Ibarra; Irina-Elena Veliche; Isabel Kloumann; Ishan Misra; Ivan Evtimov; Jacob Xu; Jade Copet; Jake Weissman; Jan Geffert; Jana Vranes; Japhet Asher; Jason Park; Jay Mahadeokar; Jean-Baptiste Gaya; Jeet Shah; Jelmer van der Linde; Jennifer Chan; Jenny Hong; Jenya Lee; Jeremy Fu; Jeremy Teboul; Jianfeng Chi; Jianyu Huang; Jie Wang; Jiecao Yu; Joanna Bitton; Joe Spisak; Joelle Pineau; Jon Carvill; Jongsoo Park; Joseph Rocca; Joshua Johnstun; Junteng Jia; Kalyan Vasuden Alwala; Kam Hou U; Kate Plawiak; Kartikeya Upasani; Kaushik Veeraraghavan; Ke Li; Kenneth Heafield; Kevin Stone; Khalid El-Arini; Krithika Iyer; Kshitiz Malik; Kuenley Chiu; Kunal Bhalla; Kyle Huang; Lakshya Garg; Lauren Rantala-Yeary; Laurens van der Maaten; Lawrence Chen; Leandro Silva; Lee Bell; Lei Zhang; Liang Tan; Louis Martin; Lovish Madaan; Luca Wehrstedt; Lukas Blecher; Luke de Oliveira; Madeline Muzzi; Madian Khabsa; Manav Avlani; Mannat Singh; Manohar Paluri; Mark Zuckerberg; Marcin Kardas; Martynas Mankus; Mathew Oldham; Mathieu Rita; Matthew Lennie; Maya Pavlova; Meghan Keneally; Melanie Kambadur; Mihir Patel; Mikayel Samvelyan; Mike Clark; Mike Lewis; Min Si; Mitesh Kumar Singh; Mo Metanat; Mona Hassan; Naman Goyal; Narjes Torabi; Nicolas Usunier; Nikolay Bashlykov; Nikolay Bogoychev; Niladri Chatterji; Ning Dong; Oliver Aobo Yang; Olivier Duchenne; Onur Celebi; Parth Parekh; Patrick Alrassy; Paul Saab; Pavan Balaji; Pedro Rittner; Pengchuan Zhang; Pengwei Li; Petar Vasic; Peter Weng; Polina Zvyagina; Prajjwal Bhargava; Pratik Dubal; Praveen Krishnan; Punit Singh Koura; Qing He; Rachel Rodriguez; Ragavan Srinivasan; Rahul Mitra; Ramon Calderer; Raymond Li; Robert Stojnic; Roberta Raileanu; Robin Battey; Rocky Wang; Rohit Girdhar; Rohit Patel; Romain Sauvestre; Ronnie Polidoro; Roshan Sumbaly; Ross Taylor; Ruan Silva; Rui Hou; Rui Wang; Russ Howes; Ruty Rinott; Saghar Hosseini; Sai Jayesh Bondu; Samyak Datta; Sanjay Singh; Sara Chugh; Sargun Dhillon; Satadru Pan; Sean Bell; Sergey Edunov; Shaoliang Nie; Sharan Narang; Sharath Raparthy; Shaun Lindsay; Sheng Feng; Sheng Shen; Shenghao Lin; Shiva Shankar; Shruti Bhosale; Shun Zhang; Simon Vandenhende; Sinong Wang; Seohyun Sonia Kim; Soumya Batra; Sten Sootla; Steve Kehoe; Suchin Gururangan; Sumit Gupta; Sunny Virk; Sydney Borodinsky; Tamar Glaser; Tamar Herman; Tamara Best; Tara Fowler; Thomas Georgiou; Thomas Scialom; Tianhe Li; Todor Mihaylov; Tong Xiao; Ujjwal Karn; Vedanuj Goswami; Vibhor Gupta; Vignesh Ramanathan; Viktor Kerkez; Vinay Satish Kumar; Vincent Gonguet; Vish Vogeti; Vlad Poenaru; Vlad Tiberiu Mihailescu; Vladan Petrovic; Vladimir Ivanov; Wei Li; Weiwei Chu; Wenhan Xiong; Wenyin Fu; Wes Bouaziz; Whitney Meers; Will Constable; Xavier Martinet; Xiaojian Wu; Xinbo Gao; Xinfeng Xie; Xuchao Jia; Yaelle Goldschlag; Yann LeCun; Yashesh Gaur; Yasmine Babaei; Ye Qi; Yenda Li; Yi Wen; Yiwen Song; Youngjin Nam; Yuchen Hao; Yuchen Zhang; Yun Wang; Yuning Mao; Yuzi He; Zacharie Delpierre Coudert; Zachary DeVito; Zahra Hankir; Zhaoduo Wen; Zheng Yan; Zhengxing Chen; Zhenyu Yang; Zoe Papakipos
📄 许可证
META LLAMA 3社区许可协议
Meta Llama 3版本发布日期:2024年4月18日
“协议”指本协议中规定的使用、复制、分发和修改Llama材料的条款和条件。
“文档”指Meta在https://llama.meta.com/get-started/ 分发的Meta Llama 3随附的规格、手册和文档。
“被许可方”或“您”指您,或您的雇主或任何其他人或实体(如果您代表该人或实体签订本协议),达到适用法律、规则或法规要求的提供法律同意的年龄,并且如果您代表您的雇主或其他人员或实体签订本协议,则具有约束他们的法律权力。
“Meta Llama 3”指基础大语言模型以及软件和算法,包括机器学习模型代码、训练好的模型权重、推理启用代码、训练启用代码、微调启用代码以及Meta在https://llama.meta.com/llama-downloads 分发的上述其他元素。
“Llama材料”指根据本协议提供的Meta专有的Meta Llama 3和文档(及其任何部分)的统称。
“Meta”或“我们”指Meta Platforms Ireland Limited(如果您位于欧洲经济区或瑞士,或者如果您是实体,您的主要营业地位于欧洲经济区或瑞士)和Meta Platforms, Inc.(如果您位于欧洲经济区或瑞士以外)。
许可权利和再分发
- 权利授予:您被授予在Llama材料中体现的Meta知识产权或Meta拥有的其他权利下的非排他性、全球性、不可转让且免版税的有限许可,以使用、复制、分发、拷贝、创作衍生作品并对Llama材料进行修改。
- 再分发和使用
- 如果您分发或提供Llama材料(或其任何衍生作品),或使用其中任何一种的产品或服务,包括另一个AI模型,您应(A)随任何此类Llama材料提供本协议的副本;并且(B)在相关网站、用户界面、博客文章、关于页面或产品文档上显著显示“Built with Meta Llama 3”。如果您使用Llama材料创建、训练、微调或以其他方式改进一个AI模型,并进行分发或提供,则您还应在任何此类AI模型名称的开头包含“Llama 3”。
- 如果您作为集成最终用户产品的一部分从被许可方处接收Llama材料或其任何衍生作品,则本协议第2条不适用于您。
- 您必须在您分发的所有Llama材料副本中,在作为此类副本一部分分发的“Notice”文本文件中保留以下归属声明:“Meta Llama 3 is licensed under the Meta Llama 3 Community License, Copyright © Meta Platforms, Inc. All Rights Reserved.”
- 您对Llama材料的使用必须遵守适用的法律法规(包括贸易合规法律法规),并遵守Llama材料的《可接受使用政策》(可在https://llama.meta.com/llama3/use-policy 获得),该政策特此通过引用并入本协议。
- 您不得使用Llama材料或Llama材料的任何输出或结果来改进任何其他大语言模型(不包括Meta Llama 3或其衍生作品)。
额外商业条款
如果在Meta Llama 3版本发布日期,被许可方或被许可方的关联公司提供的产品或服务的月活跃用户在前一个日历月超过7亿,则您必须向Meta请求许可,Meta可自行决定是否授予您许可,并且在Meta明确授予您此类权利之前,您无权行使本协议下的任何权利。
免责声明
除非适用法律要求,Llama材料及其任何输出和结果均按“现状”提供,不提供任何形式的保证,Meta否认所有形式的明示和暗示保证,包括但不限于所有权、不侵权、适销性或特定用途适用性的任何保证。您独自负责确定使用或再分发Llama材料的适当性,并承担与您使用Llama材料及其任何输出和结果相关的任何风险。
责任限制
在任何情况下,Meta或其关联公司均不对因本协议引起的任何责任理论(无论是合同、侵权、疏忽、产品责任还是其他)承担任何利润损失或任何间接、特殊、后果性、偶发性、惩戒性或惩罚性损害赔偿,即使Meta或其关联公司已被告知此类损害赔偿的可能性。
知识产权
- 本协议未授予任何商标许可,关于Llama材料,除非在描述和再分发Llama材料的合理和惯常使用中或如本节5(a)所述,Meta和被许可方均不得使用对方或其任何关联公司拥有或关联的任何名称或标记。Meta特此授予您仅为遵守第1.b.i条最后一句的要求而使用“Llama 3”(“标记”)的许可。您将遵守Meta的品牌指南(目前可在https://about.meta.com/brand/resources/meta/company-brand/ 访问)。因您使用标记而产生的所有商誉将归Meta所有。
- 鉴于Meta对Llama材料及其为Meta制作的衍生作品的所有权,关于您制作的Llama材料的任何衍生作品和修改,在您和Meta之间,您是且将是此类衍生作品和修改的所有者。
- 如果您对Meta或任何实体提起诉讼或其他程序(包括诉讼中的反诉或反请求),声称Llama材料或Meta Llama 3的输出或结果,或上述任何部分构成侵犯您拥有或可许可的知识产权或其他权利,则本协议授予您的任何许可应自此类诉讼或请求提起之日起终止。您将赔偿并使Meta免受因您使用或分发Llama材料而引起的或与之相关的任何第三方索赔。
期限和终止
本协议的期限将自您接受本协议或访问Llama材料时开始,并将持续有效,直至根据本协议的条款和条件终止。如果您违反本协议的任何条款或条件,Meta可终止本协议。本协议终止后,您应删除并停止使用Llama材料。第3、4和7条在本协议终止后仍然有效。
适用法律和管辖权
本协议将受加利福尼亚州法律管辖并依其解释,不考虑法律选择原则,并且《联合国国际货物销售合同公约》不适用于本协议。加利福尼亚州的法院对因本协议引起的任何争议具有专属管辖权。
Meta Llama 3可接受使用政策
Meta致力于促进其工具和功能(包括Meta Llama 3)的安全和公平使用。如果您访问或使用Meta Llama 3,您同意遵守本《可接受使用政策》(“政策”)。本政策的最新版本可在https://llama.meta.com/llama3/use-policy找到。
禁止使用
我们希望每个人都能安全、负责任地使用Meta Llama 3。您同意您不会使用或允许他人使用Meta Llama 3来:
- 违反法律或他人权利
- 从事、促进、生成、促成、鼓励、策划、煽动或进一步推动非法或违法活动或内容,例如:
- 暴力或恐怖主义
- 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容或未能报告儿童性虐待材料
- 人口贩运、剥削和性暴力
- 向未成年人非法分发信息或材料,包括淫秽材料,或未能对此类信息或材料采用法律要求的年龄限制
- 性招揽
- 任何其他犯罪活动
- 从事、促进、煽动或便利对个人或个人群体的骚扰、虐待、威胁或欺凌
- 从事、促进、煽动或便利在就业、就业福利、信贷、住房、其他经济福利或其他基本商品和服务的提供方面的歧视或其他非法或有害行为
- 从事未经授权或无执照的任何职业实践,包括但不限于金融、法律、医疗/健康或相关专业实践
- 在未获得适用法律要求的权利和同意的情况下,收集、处理、披露、生成或推断个人的健康、人口统计或其他敏感个人或私人信息
- 从事或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为或生成任何内容,包括使用Llama材料的任何产品或服务的输出或结果
- 创建、生成或便利创建恶意代码、恶意软件、计算机病毒或做任何其他可能禁用、使负担过重、干扰或损害网站或计算机系统的正常工作、完整性、操作或外观的事情
- 从事、促进、生成、促成、鼓励、策划、煽动或进一步推动非法或违法活动或内容,例如:
- 从事、促进、煽动、便利或协助规划或开展对个人造成死亡或身体伤害风险的活动,包括与以下方面相关的Meta Llama 3的使用:
- 军事、战争、核工业或应用、间谍活动、使用受美国国务院维护的《国际武器贸易条例》(ITAR)管制的材料或活动
- 枪支和非法武器(包括武器开发)
- 非法药物和受管制/受控物质
- 关键基础设施、运输技术或重型机械的操作
- 自我伤害或伤害他人,包括自杀、自残和饮食失调
- 任何旨在煽动或促进对个人的暴力、虐待或任何身体伤害的内容
- 故意欺骗或误导他人,包括与以下方面相关的Meta Llama 3的使用:
- 生成、促进或进一步推动欺诈或创建或促进虚假信息
- 生成、促进或进一步推动诽谤性内容,包括创建诽谤性声明、图像或其他内容
- 生成、促进或进一步分发垃圾邮件
- 在未经同意、授权或合法权利的情况下冒充他人
- 表示使用Meta Llama 3或其输出是人类生成的
- 生成或便利虚假的在线互动,包括虚假评论和其他虚假在线互动方式
- 未能向最终用户适当披露您的AI系统的任何已知危险
请通过以下方式之一报告本政策的任何违反行为、软件“漏洞”或其他可能导致违反本政策的问题:
- 报告模型问题:https://github.com/meta-llama/llama3
- 报告模型生成的风险内容:developers.facebook.com/llama_output_feedback
- 报告漏洞和安全问题:facebook.com/whitehat/info
- 报告违反《可接受使用政策》或未经授权使用Meta Llama 3的情况:LlamaUseReport@meta.com
额外的许可字段信息
- 名字:文本输入
- 姓氏:文本输入
- 出生日期:日期选择器
- 国家:国家选择
- 所属机构:文本输入
- 地理位置:IP定位
- 勾选框:点击下方的“提交”,即表示您接受许可条款,并确认您提供的信息将根据Meta隐私政策进行收集、存储、处理和共享。
- 提交按钮内容:提交
额外的许可描述
您提供的信息将根据Meta隐私政策进行收集、存储、处理和共享。



