模型简介
模型特点
模型能力
使用案例
🚀 Meta Llama 3 大语言模型
Meta Llama 3 是 Meta 开发并发布的一系列大语言模型,涵盖 8B 和 70B 两种参数规模的预训练和指令微调生成式文本模型。这些模型在常见行业基准测试中表现出色,尤其适用于对话场景,同时在开发过程中高度重视模型的实用性和安全性。
🚀 快速开始
使用 Transformers 库
>>> import transformers
>>> import torch
>>> model_id = "meta-llama/Meta-Llama-3-70B"
>>> pipeline = transformers.pipeline(
"text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
)
>>> pipeline("Hey how are you doing today?")
使用 llama3
代码库
请遵循 仓库 中的说明。
使用以下命令下载原始检查点:
huggingface-cli download meta-llama/Meta-Llama-3-70B --include "original/*" --local-dir Meta-Llama-3-70B
✨ 主要特性
- 多参数规模选择:提供 8B 和 70B 两种参数规模的模型,满足不同应用场景的需求。
- 优化对话性能:指令微调模型针对对话场景进行了优化,在常见行业基准测试中表现优于许多开源聊天模型。
- 注重安全与实用:开发过程中高度重视模型的安全性和实用性,通过多种技术手段降低潜在风险。
📦 安装指南
本仓库包含两个版本的 Meta-Llama-3-8B-Instruct,可分别与 Transformers 库和原始 llama3
代码库配合使用。具体安装和使用方法请参考上述“快速开始”部分。
💻 使用示例
基础用法
使用 Transformers 库进行文本生成:
>>> import transformers
>>> import torch
>>> model_id = "meta-llama/Meta-Llama-3-70B"
>>> pipeline = transformers.pipeline(
"text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
)
>>> pipeline("Hey how are you doing today?")
📚 详细文档
模型详情
属性 | 详情 |
---|---|
模型开发者 | Meta |
模型变体 | Llama 3 有 8B 和 70B 两种参数规模,包括预训练和指令微调版本 |
输入 | 仅接受文本输入 |
输出 | 生成文本和代码 |
模型架构 | 自回归语言模型,采用优化的 Transformer 架构。微调版本使用监督微调(SFT)和基于人类反馈的强化学习(RLHF)来符合人类对实用性和安全性的偏好 |
训练数据 | 新的公开在线数据混合。微调数据包括公开指令数据集和超过 1000 万个手动标注的示例 |
模型发布日期 | 2024 年 4 月 18 日 |
状态 | 基于离线数据集训练的静态模型。未来将根据社区反馈改进模型安全性并发布微调版本 |
许可证 | 自定义商业许可证:https://llama.meta.com/llama3/license |
预期用途
- 预期用例:Llama 3 适用于英语商业和研究用途。指令微调模型适用于类似助手的聊天场景,预训练模型可用于多种自然语言生成任务。
- 超出范围的使用:禁止以任何违反适用法律法规(包括贸易合规法律)的方式使用;禁止违反可接受使用政策和 Llama 3 社区许可证的使用;禁止用于英语以外的语言。
硬件和软件
- 训练因素:使用自定义训练库、Meta 的研究超级集群和生产集群进行预训练。微调、标注和评估也在第三方云计算平台上进行。
- 碳足迹:预训练累计使用了 770 万个 H100 - 80GB GPU 小时(TDP 为 700W)的计算资源。估计总排放量为 2290 tCO2eq,全部由 Meta 的可持续发展计划抵消。
训练数据
- 概述:Llama 3 在超过 15 万亿个公开数据源的标记上进行了预训练。微调数据包括公开指令数据集和超过 1000 万个手动标注的示例。预训练和微调数据集均不包含 Meta 用户数据。
- 数据新鲜度:预训练数据的截止时间分别为 2023 年 3 月(8B 模型)和 2023 年 12 月(70B 模型)。
基准测试
基础预训练模型
类别 | 基准测试 | Llama 3 8B | Llama2 7B | Llama2 13B | Llama 3 70B | Llama2 70B |
---|---|---|---|---|---|---|
通用 | MMLU (5-shot) | 66.6 | 45.7 | 53.8 | 79.5 | 69.7 |
通用 | AGIEval English (3 - 5 shot) | 45.9 | 28.8 | 38.7 | 63.0 | 54.8 |
通用 | CommonSenseQA (7-shot) | 72.6 | 57.6 | 67.6 | 83.8 | 78.7 |
通用 | Winogrande (5-shot) | 76.1 | 73.3 | 75.4 | 83.1 | 81.8 |
通用 | BIG - Bench Hard (3-shot, CoT) | 61.1 | 38.1 | 47.0 | 81.3 | 65.7 |
通用 | ARC - Challenge (25-shot) | 78.6 | 53.7 | 67.6 | 93.0 | 85.3 |
知识推理 | TriviaQA - Wiki (5-shot) | 78.5 | 72.1 | 79.6 | 89.7 | 87.5 |
阅读理解 | SQuAD (1-shot) | 76.4 | 72.2 | 72.1 | 85.6 | 82.6 |
阅读理解 | QuAC (1-shot, F1) | 44.4 | 39.6 | 44.9 | 51.1 | 49.4 |
阅读理解 | BoolQ (0-shot) | 75.7 | 65.5 | 66.9 | 79.0 | 73.1 |
阅读理解 | DROP (3-shot, F1) | 58.4 | 37.9 | 49.8 | 79.7 | 70.2 |
指令微调模型
基准测试 | Llama 3 8B | Llama 2 7B | Llama 2 13B | Llama 3 70B | Llama 2 70B |
---|---|---|---|---|---|
MMLU (5-shot) | 68.4 | 34.1 | 47.8 | 82.0 | 52.9 |
GPQA (0-shot) | 34.2 | 21.7 | 22.3 | 39.5 | 21.0 |
HumanEval (0-shot) | 62.2 | 7.9 | 14.0 | 81.7 | 25.6 |
GSM - 8K (8-shot, CoT) | 79.6 | 25.7 | 77.4 | 93.0 | 57.5 |
MATH (4-shot, CoT) | 30.0 | 3.8 | 6.7 | 50.4 | 11.6 |
责任与安全
- 负责任的使用指南:更新了 负责任使用指南,概述了开发者在应用中实现模型和系统级安全的步骤和最佳实践。
- 安全工具:提供了 Meta Llama Guard 2 和 Code Shield 等安全工具,可显著降低大语言模型系统的残留风险,同时保持高度的实用性。
- Llama 3 - Instruct:
- 安全性:对指令微调模型进行了广泛的红队测试、对抗性评估和安全缓解技术实施,以降低残留风险。
- 拒绝率:改进了微调过程,确保 Llama 3 比 Llama 2 更不可能错误地拒绝回答提示。
- 负责任的发布:遵循严格的流程,在发布前采取额外措施防止滥用和关键风险。
- 滥用:使用 Llama 3 需同意 可接受使用政策。
- 关键风险评估:对模型在 CBRNE(化学、生物、放射、核和高当量爆炸物)、网络安全和儿童安全等领域进行了评估,并采取了相应的缓解措施。
社区
- 开放社区贡献:积极参与开源联盟,如 AI Alliance、Partnership in AI 和 MLCommons,为安全标准化和透明度做出贡献。
- 资源提供:提供 输出报告机制 和 漏洞赏金计划,以借助社区力量不断改进 Llama 技术。
伦理考虑和局限性
Llama 3 的核心价值观是开放性、包容性和实用性,但作为新技术,其使用存在风险。测试主要在英语环境中进行,无法覆盖所有场景。因此,在部署 Llama 3 模型应用之前,开发者应针对具体应用进行安全测试和调整。建议将 Purple Llama 解决方案集成到工作流程中,特别是 Llama Guard,以在模型级安全的基础上增加系统级安全。
引用说明
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url = {https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
贡献者
Aaditya Singh; Aaron Grattafiori; Abhimanyu Dubey; Abhinav Jauhri; Abhinav Pandey; Abhishek Kadian; Adam Kelsey; Adi Gangidi; Ahmad Al-Dahle; Ahuva Goldstand; Aiesha Letman; Ajay Menon; Akhil Mathur; Alan Schelten; Alex Vaughan; Amy Yang; Andrei Lupu; Andres Alvarado; Andrew Gallagher; Andrew Gu; Andrew Ho; Andrew Poulton; Andrew Ryan; Angela Fan; Ankit Ramchandani; Anthony Hartshorn; Archi Mitra; Archie Sravankumar; Artem Korenev; Arun Rao; Ashley Gabriel; Ashwin Bharambe; Assaf Eisenman; Aston Zhang; Aurelien Rodriguez; Austen Gregerson; Ava Spataru; Baptiste Roziere; Ben Maurer; Benjamin Leonhardi; Bernie Huang; Bhargavi Paranjape; Bing Liu; Binh Tang; Bobbie Chern; Brani Stojkovic; Brian Fuller; Catalina Mejia Arenas; Chao Zhou; Charlotte Caucheteux; Chaya Nayak; Ching-Hsiang Chu; Chloe Bi; Chris Cai; Chris Cox; Chris Marra; Chris McConnell; Christian Keller; Christoph Feichtenhofer; Christophe Touret; Chunyang Wu; Corinne Wong; Cristian Canton Ferrer; Damien Allonsius; Daniel Kreymer; Daniel Haziza; Daniel Li; Danielle Pintz; Danny Livshits; Danny Wyatt; David Adkins; David Esiobu; David Xu; Davide Testuggine; Delia David; Devi Parikh; Dhruv Choudhary; Dhruv Mahajan; Diana Liskovich; Diego Garcia-Olano; Diego Perino; Dieuwke Hupkes; Dingkang Wang; Dustin Holland; Egor Lakomkin; Elina Lobanova; Xiaoqing Ellen Tan; Emily Dinan; Eric Smith; Erik Brinkman; Esteban Arcaute; Filip Radenovic; Firat Ozgenel; Francesco Caggioni; Frank Seide; Frank Zhang; Gabriel Synnaeve; Gabriella Schwarz; Gabrielle Lee; Gada Badeer; Georgia Anderson; Graeme Nail; Gregoire Mialon; Guan Pang; Guillem Cucurell; Hailey Nguyen; Hannah Korevaar; Hannah Wang; Haroun Habeeb; Harrison Rudolph; Henry Aspegren; Hu Xu; Hugo Touvron; Iga Kozlowska; Igor Molybog; Igor Tufanov; Iliyan Zarov; Imanol Arrieta Ibarra; Irina-Elena Veliche; Isabel Kloumann; Ishan Misra; Ivan Evtimov; Jacob Xu; Jade Copet; Jake Weissman; Jan Geffert; Jana Vranes; Japhet Asher; Jason Park; Jay Mahadeokar; Jean-Baptiste Gaya; Jeet Shah; Jelmer van der Linde; Jennifer Chan; Jenny Hong; Jenya Lee; Jeremy Fu; Jeremy Teboul; Jianfeng Chi; Jianyu Huang; Jie Wang; Jiecao Yu; Joanna Bitton; Joe Spisak; Joelle Pineau; Jon Carvill; Jongsoo Park; Joseph Rocca; Joshua Johnstun; Junteng Jia; Kalyan Vasuden Alwala; Kam Hou U; Kate Plawiak; Kartikeya Upasani; Kaushik Veeraraghavan; Ke Li; Kenneth Heafield; Kevin Stone; Khalid El-Arini; Krithika Iyer; Kshitiz Malik; Kuenley Chiu; Kunal Bhalla; Kyle Huang; Lakshya Garg; Lauren Rantala-Yeary; Laurens van der Maaten; Lawrence Chen; Leandro Silva; Lee Bell; Lei Zhang; Liang Tan; Louis Martin; Lovish Madaan; Luca Wehrstedt; Lukas Blecher; Luke de Oliveira; Madeline Muzzi; Madian Khabsa; Manav Avlani; Mannat Singh; Manohar Paluri; Mark Zuckerberg; Marcin Kardas; Martynas Mankus; Mathew Oldham; Mathieu Rita; Matthew Lennie; Maya Pavlova; Meghan Keneally; Melanie Kambadur; Mihir Patel; Mikayel Samvelyan; Mike Clark; Mike Lewis; Min Si; Mitesh Kumar Singh; Mo Metanat; Mona Hassan; Naman Goyal; Narjes Torabi; Nicolas Usunier; Nikolay Bashlykov; Nikolay Bogoychev; Niladri Chatterji; Ning Dong; Oliver Aobo Yang; Olivier Duchenne; Onur Celebi; Parth Parekh; Patrick Alrassy; Paul Saab; Pavan Balaji; Pedro Rittner; Pengchuan Zhang; Pengwei Li; Petar Vasic; Peter Weng; Polina Zvyagina; Prajjwal Bhargava; Pratik Dubal; Praveen Krishnan; Punit Singh Koura; Qing He; Rachel Rodriguez; Ragavan Srinivasan; Rahul Mitra; Ramon Calderer; Raymond Li; Robert Stojnic; Roberta Raileanu; Robin Battey; Rocky Wang; Rohit Girdhar; Rohit Patel; Romain Sauvestre; Ronnie Polidoro; Roshan Sumbaly; Ross Taylor; Ruan Silva; Rui Hou; Rui Wang; Russ Howes; Ruty Rinott; Saghar Hosseini; Sai Jayesh Bondu; Samyak Datta; Sanjay Singh; Sara Chugh; Sargun Dhillon; Satadru Pan; Sean Bell; Sergey Edunov; Shaoliang Nie; Sharan Narang; Sharath Raparthy; Shaun Lindsay; Sheng Feng; Sheng Shen; Shenghao Lin; Shiva Shankar; Shruti Bhosale; Shun Zhang; Simon Vandenhende; Sinong Wang; Seohyun Sonia Kim; Soumya Batra; Sten Sootla; Steve Kehoe; Suchin Gururangan; Sumit Gupta; Sunny Virk; Sydney Borodinsky; Tamar Glaser; Tamar Herman; Tamara Best; Tara Fowler; Thomas Georgiou; Thomas Scialom; Tianhe Li; Todor Mihaylov; Tong Xiao; Ujjwal Karn; Vedanuj Goswami; Vibhor Gupta; Vignesh Ramanathan; Viktor Kerkez; Vinay Satish Kumar; Vincent Gonguet; Vish Vogeti; Vlad Poenaru; Vlad Tiberiu Mihailescu; Vladan Petrovic; Vladimir Ivanov; Wei Li; Weiwei Chu; Wenhan Xiong; Wenyin Fu; Wes Bouaziz; Whitney Meers; Will Constable; Xavier Martinet; Xiaojian Wu; Xinbo Gao; Xinfeng Xie; Xuchao Jia; Yaelle Goldschlag; Yann LeCun; Yashesh Gaur; Yasmine Babaei; Ye Qi; Yenda Li; Yi Wen; Yiwen Song; Youngjin Nam; Yuchen Hao; Yuchen Zhang; Yun Wang; Yuning Mao; Yuzi He; Zacharie Delpierre Coudert; Zachary DeVito; Zahra Hankir; Zhaoduo Wen; Zheng Yan; Zhengxing Chen; Zhenyu Yang; Zoe Papakipos
📄 许可证
Llama 3 使用自定义商业许可证,详情请见:https://llama.meta.com/llama3/license
META LLAMA 3 社区许可协议
Meta Llama 3 版本发布日期:2024 年 4 月 18 日
“协议”指本协议中规定的使用、复制、分发和修改 Llama 材料的条款和条件。
“文档”指 Meta 在 https://llama.meta.com/get-started/ 上分发的 Meta Llama 3 随附的规格、手册和文档。
“被许可方”或“您”指您,或您的雇主或任何其他人或实体(如果您代表该人或实体签订本协议),且该人或实体已达到适用法律、规则或法规要求的提供法律同意的年龄,并且如果您代表他们签订本协议,具有约束您的雇主或该其他人或实体的法律权力。
“Meta Llama 3”指 Meta 在 https://llama.meta.com/llama-downloads 上分发的基础大语言模型以及软件和算法,包括机器学习模型代码、训练好的模型权重、推理启用代码、训练启用代码、微调启用代码以及上述内容的其他元素。
“Llama 材料”指根据本协议提供的 Meta 专有的 Meta Llama 3 和文档(及其任何部分)的统称。
“Meta”或“我们”指 Meta Platforms Ireland Limited(如果您位于欧洲经济区或瑞士,或者如果您是一个实体,您的主要营业地位于欧洲经济区或瑞士)和 Meta Platforms, Inc.(如果您位于欧洲经济区或瑞士以外)。
- 许可权利和再分发
- a. 权利授予。您被授予在 Llama 材料中体现的 Meta 知识产权或 Meta 拥有的其他权利下的非排他性、全球性、不可转让且免版税的有限许可,以使用、复制、分发、拷贝、创作衍生作品并对 Llama 材料进行修改。
- b. 再分发和使用
- i. 如果您分发或提供 Llama 材料(或其任何衍生作品),或使用其中任何一种的产品或服务,包括另一个人工智能模型,您应(A)随任何此类 Llama 材料提供本协议的副本;以及(B)在相关网站、用户界面、博客文章、关于页面或产品文档上显著显示“Built with Meta Llama 3”。如果您使用 Llama 材料创建、训练、微调或以其他方式改进一个人工智能模型,并进行分发或提供,您还应在任何此类人工智能模型名称的开头包含“Llama 3”。
- ii. 如果您作为集成最终用户产品的一部分从被许可方处接收 Llama 材料或其任何衍生作品,则本协议第 2 条不适用于您。
- iii. 您必须在您分发的所有 Llama 材料副本中保留以下归属声明,该声明应包含在作为此类副本一部分分发的“Notice”文本文件中:“Meta Llama 3 is licensed under the Meta Llama 3 Community License, Copyright © Meta Platforms, Inc. All Rights Reserved.”
- iv. 您对 Llama 材料的使用必须遵守适用的法律法规(包括贸易合规法律法规),并遵守 Llama 材料的可接受使用政策(可在 https://llama.meta.com/llama3/use-policy 上获取),该政策特此通过引用并入本协议。
- v. 您不得使用 Llama 材料或 Llama 材料的任何输出或结果来改进任何其他大语言模型(不包括 Meta Llama 3 或其衍生作品)。
- 额外商业条款。如果在 Meta Llama 3 版本发布日期,被许可方或被许可方的关联方提供的产品或服务在前一个日历月的月活跃用户超过 7 亿月活跃用户,您必须向 Meta 请求许可,Meta 可自行决定是否授予您许可,并且在 Meta 明确授予您此类权利之前,您无权行使本协议下的任何权利。
- 保修免责声明。除非适用法律要求,否则 Llama 材料及其任何输出和结果均按“现状”提供,不提供任何形式的保证,Meta 明确否认所有形式的明示和暗示保证,包括但不限于所有权、不侵权、适销性或特定用途适用性的保证。您独自负责确定使用或再分发 Llama 材料的适当性,并承担与您使用 Llama 材料及其任何输出和结果相关的任何风险。
- 责任限制。在任何情况下,Meta 或其关联方均不对因本协议引起的任何理论下的责任负责,无论是在合同、侵权、疏忽、产品责任或其他方面,对于任何利润损失或任何间接、特殊、后果性、偶发性、惩戒性或惩罚性损害赔偿,即使 Meta 或其关联方已被告知任何上述可能性。
- 知识产权
- a. 本协议未授予任何商标许可,并且与 Llama 材料相关,除非在描述和再分发 Llama 材料时进行合理和惯常使用所需,或如本节 5(a) 所述,Meta 和被许可方均不得使用对方或其任何关联方拥有或关联的任何名称或标记。Meta 特此授予您仅在遵守第 1.b.i 条最后一句的要求时使用“Llama 3”(“标记”)的许可。您将遵守 Meta 的品牌指南(目前可在 https://about.meta.com/brand/resources/meta/company-brand/ 上获取)。因您使用标记而产生的所有商誉将归属于 Meta 的利益。
- b. 鉴于 Meta 对 Llama 材料和 Meta 或代表 Meta 制作的衍生作品的所有权,就您制作的 Llama 材料的任何衍生作品和修改而言,在您和 Meta 之间,您是且将是此类衍生作品和修改的所有者。
- c. 如果您对 Meta 或任何实体提起诉讼或其他程序(包括在诉讼中的交叉索赔或反诉),声称 Llama 材料或 Meta Llama 3 的输出或结果,或上述任何部分构成对您拥有或可许可的知识产权或其他权利的侵权,则本协议授予您的任何许可应自此类诉讼或索赔提起之日起终止。您将赔偿并使 Meta 免受任何第三方因您使用或分发 Llama 材料而产生或与之相关的任何索赔。
- 期限和终止。本协议的期限将自您接受本协议或访问 Llama 材料时开始,并将持续有效,直至根据本协议的条款和条件终止。如果您违反本协议的任何条款或条件,Meta 可终止本协议。本协议终止后,您应删除并停止使用 Llama 材料。第 3、4 和 7 条在本协议终止后仍然有效。
- 适用法律和管辖权。本协议将受加利福尼亚州法律管辖并依其解释,不考虑法律选择原则,并且《联合国国际货物销售合同公约》不适用于本协议。加利福尼亚州的法院对因本协议引起的任何争议具有专属管辖权。
Meta Llama 3 可接受使用政策
Meta 致力于促进其工具和功能(包括 Meta Llama 3)的安全和公平使用。如果您访问或使用 Meta Llama 3,您同意本可接受使用政策(“政策”)。本政策的最新版本可在 https://llama.meta.com/llama3/use-policy 上找到。
禁止使用
我们希望每个人都能安全、负责任地使用 Meta Llama 3。您同意您不会使用或允许他人使用 Meta Llama 3 进行以下行为:
- 违反法律或他人权利,包括
- 参与、促进、生成、促成、鼓励、策划、煽动或进一步实施非法或违法活动或内容,例如
- 暴力或恐怖主义
- 对儿童的剥削或伤害,包括招揽、创建、获取或传播儿童剥削内容或未能报告儿童性虐待材料
- 人口贩运、剥削和性暴力
- 向未成年人非法分发信息或材料,包括淫秽材料,或未能对与此类信息或材料相关的内容采用法律要求的年龄限制
- 性招揽
- 任何其他犯罪活动
- 参与、促进、煽动或便利对个人或个人群体的骚扰、虐待、威胁或欺凌
- 参与、促进、煽动或便利在就业、就业福利、信贷、住房、其他经济利益或其他基本商品和服务的提供方面的歧视或其他非法或有害行为
- 从事未经授权或无执照的任何专业实践,包括但不限于金融、法律、医疗/健康或相关专业实践
- 在未获得适用法律要求的权利和同意的情况下,收集、处理、披露、生成或推断有关个人的健康、人口统计或其他敏感个人或私人信息
- 参与或便利任何侵犯、盗用或以其他方式侵犯任何第三方权利的行为或生成任何内容,包括使用 Llama 材料的任何产品或服务的输出或结果
- 创建、生成或便利创建恶意代码、恶意软件、计算机病毒或进行任何可能禁用、使负担过重、干扰或损害网站或计算机系统的正常运行、完整性、操作或外观的其他操作
- 参与、促进、生成、促成、鼓励、策划、煽动或进一步实施非法或违法活动或内容,例如
- 参与、促进、煽动、便利或协助策划或开展对个人造成死亡或身体伤害风险的活动,包括与以下方面相关的 Meta Llama 3 的使用
- 军事、战争、核工业或应用、间谍活动、用于受美国国务院维护的《国际武器贸易条例》(ITAR)管制的材料或活动
- 枪支和非法武器(包括武器开发)
- 非法毒品和受管制/受控物质
- 关键基础设施、运输技术或重型机械的操作
- 自我伤害或对他人的伤害,包括自杀、切割和饮食失调
- 任何旨在煽动或促进对个人的暴力、虐待或任何身体伤害的内容
- 故意欺骗或误导他人,包括与以下方面相关的 Meta Llama 3 的使用
- 生成、促进或进一步实施欺诈或创建或促进虚假信息
- 生成、促进或进一步传播诽谤性内容,包括创建诽谤性声明、图像或其他内容
- 生成、促进或进一步分发垃圾邮件
- 在未经同意、授权或合法权利的情况下冒充他人
- 表示使用 Meta Llama 3 或其输出是人类生成的
- 生成或便利虚假的在线互动,包括虚假评论和其他虚假在线互动方式
- 未能向最终用户适当披露您的人工智能系统的任何已知危险
请通过以下方式之一报告本政策的任何违反行为、软件“漏洞”或其他可能导致违反本政策的问题: - 报告模型问题:https://github.com/meta-llama/llama3 - 报告模型生成的风险内容:developers.facebook.com/llama_output_feedback - 报告漏洞和安全问题:facebook.com/whitehat/info - 报告可接受使用政策的违反行为或未经授权使用 Meta Llama 3:LlamaUseReport@meta.com
额外门控字段
字段 | 类型 |
---|---|
名字 | 文本框 |
姓氏 | 文本框 |
出生日期 | 日期选择器 |
国家 | 国家选择 |
所属机构 | 文本框 |
地理位置 | IP 定位 |
通过点击下方的“提交”,我接受许可协议的条款,并确认我提供的信息将根据 Meta 隐私政策 进行收集、存储、处理和共享。
额外门控描述
您提供的信息将根据 Meta 隐私政策 进行收集、存储、处理和共享。
额外门控按钮内容
提交
⚠️ 重要提示
开发者在使用 Llama 3 时,需严格遵守可接受使用政策和 Llama 3 社区许可证。同时,由于模型的潜在输出无法提前预测,可能会产生不准确、有偏差或其他令人反感的响应,因此在部署应用前应进行针对性的安全测试和调整。
💡 使用建议
建议开发者将 Purple Llama 解决方案集成到工作流程中,特别是 Llama Guard,以增强系统的安全性。此外,开发者可根据自身需求调整和部署 Meta Llama Guard 2 和 Code Shield 等安全工具。



