模型概述
模型特點
模型能力
使用案例
🚀 Llama 2
Llama 2是一系列預訓練和微調的生成式文本模型,參數規模從70億到700億不等。本倉庫為70B微調模型,針對對話用例進行了優化,並轉換為Hugging Face Transformers格式。其他模型的鏈接可在底部索引中找到。
🚀 快速開始
使用此模型需遵循Meta的許可協議。若要下載模型權重和分詞器,請訪問網站,接受許可協議後再在此處申請訪問。
✨ 主要特性
- 參數規模多樣:Llama 2有7B、13B和70B等不同參數規模,還有預訓練和微調等不同版本。
- 優化對話場景:微調後的LLMs(Llama-2-Chat)針對對話用例進行了優化,在大多數測試基準上優於開源聊天模型,在有用性和安全性的人工評估中,與ChatGPT和PaLM等一些流行的閉源模型相當。
- 先進架構:採用優化的Transformer架構,微調版本使用監督微調(SFT)和基於人類反饋的強化學習(RLHF),以符合人類對有用性和安全性的偏好。
📚 詳細文檔
模型詳情
屬性 | 詳情 |
---|---|
模型開發者 | Meta |
變體 | Llama 2有7B、13B和70B等參數規模,以及預訓練和微調版本 |
輸入 | 僅接受文本輸入 |
輸出 | 僅生成文本 |
模型架構 | 自迴歸語言模型,使用優化的Transformer架構。微調版本使用監督微調(SFT)和基於人類反饋的強化學習(RLHF) |
訓練數據 | 預訓練數據包含2萬億個來自公開來源的token,微調數據包括公開的指令數據集以及超過100萬個新的人工標註示例,預訓練和微調數據集均不包含Meta用戶數據 |
數據新鮮度 | 預訓練數據截止到2022年9月,部分微調數據更新至2023年7月 |
模型日期 | Llama 2於2023年1月至2023年7月期間進行訓練 |
狀態 | 這是一個基於離線數據集訓練的靜態模型。隨著我們根據社區反饋改進模型安全性,未來將發佈微調模型的新版本 |
許可證 | 可在此處獲取自定義商業許可證 |
研究論文 | "Llama-2: Open Foundation and Fine-tuned Chat Models" |
訓練數據
Llama 2在來自公開來源的2萬億個token數據上進行了預訓練。微調數據包括公開的指令數據集以及超過100萬個新的人工標註示例。預訓練和微調數據集均不包含Meta用戶數據。預訓練數據截止到2022年9月,但部分微調數據更新至2023年7月。
評估結果
學術基準測試結果
模型 | 規模 | 代碼 | 常識推理 | 世界知識 | 閱讀理解 | 數學 | MMLU | BBH | AGI評估 |
---|---|---|---|---|---|---|---|---|---|
Llama 1 | 7B | 14.1 | 60.8 | 46.2 | 58.5 | 6.95 | 35.1 | 30.3 | 23.9 |
Llama 1 | 13B | 18.9 | 66.1 | 52.6 | 62.3 | 10.9 | 46.9 | 37.0 | 33.9 |
Llama 1 | 33B | 26.0 | 70.0 | 58.4 | 67.6 | 21.4 | 57.8 | 39.8 | 41.7 |
Llama 1 | 65B | 30.7 | 70.7 | 60.5 | 68.6 | 30.8 | 63.4 | 43.5 | 47.6 |
Llama 2 | 7B | 16.8 | 63.9 | 48.9 | 61.3 | 14.6 | 45.3 | 32.6 | 29.3 |
Llama 2 | 13B | 24.5 | 66.9 | 55.4 | 65.8 | 28.7 | 54.8 | 39.4 | 39.1 |
Llama 2 | 70B | 37.5 | 71.9 | 63.6 | 69.4 | 35.2 | 68.9 | 51.2 | 54.2 |
自動安全基準測試結果
模型 | 規模 | TruthfulQA | Toxigen |
---|---|---|---|
Llama 1 | 7B | 27.42 | 23.00 |
Llama 1 | 13B | 41.74 | 23.08 |
Llama 1 | 33B | 44.19 | 22.57 |
Llama 1 | 65B | 48.71 | 21.77 |
Llama 2 | 7B | 33.29 | 21.25 |
Llama 2 | 13B | 41.86 | 26.10 |
Llama 2 | 70B | 50.18 | 24.60 |
微調LLMs在不同安全數據集上的評估結果
模型 | 規模 | TruthfulQA | Toxigen |
---|---|---|---|
Llama-2-Chat | 7B | 57.04 | 0.00 |
Llama-2-Chat | 13B | 62.18 | 0.00 |
Llama-2-Chat | 70B | 64.14 | 0.01 |
預期用途
預期用例:Llama 2旨在用於英語的商業和研究用途。微調模型適用於類似助手的聊天場景,而預訓練模型可用於各種自然語言生成任務。 超出範圍的用途:禁止以任何違反適用法律法規(包括貿易合規法律)的方式使用;禁止使用英語以外的語言;禁止以違反Llama 2可接受使用政策和許可協議的任何其他方式使用。
硬件和軟件
訓練因素
預訓練使用了自定義訓練庫、Meta的研究超級集群和生產集群。微調、標註和評估也在第三方雲計算平臺上進行。
碳足跡
預訓練在A100 - 80GB(TDP為350 - 400W)類型的硬件上累計使用了330萬個GPU小時的計算資源。估計總排放量為539 tCO2eq,其中100%由Meta的可持續發展計劃進行了抵消。
模型 | 時間(GPU小時) | 功耗(W) | 碳排放(tCO₂eq) |
---|---|---|---|
Llama 2 7B | 184320 | 400 | 31.22 |
Llama 2 13B | 368640 | 400 | 62.44 |
Llama 2 70B | 1720320 | 400 | 291.42 |
總計 | 3311616 | 539.00 |
倫理考量和侷限性
Llama 2是一項新技術,使用時存在風險。到目前為止的測試均使用英語進行,且無法涵蓋所有場景。因此,與所有大語言模型一樣,Llama 2的潛在輸出無法提前預測,在某些情況下,模型可能會對用戶提示產生不準確、有偏見或其他令人反感的回覆。因此,在部署Llama 2的任何應用程序之前,開發人員應針對模型的特定應用進行安全測試和調整。
請參閱負責任使用指南。
問題報告
若發現軟件“漏洞”或模型的其他問題,請通過以下方式之一進行報告:
- 報告模型問題:github.com/facebookresearch/llama
- 報告模型生成的有問題內容:developers.facebook.com/llama_output_feedback
- 報告漏洞和安全問題:facebook.com/whitehat/info
Llama模型索引
模型 | Llama2 | Llama2 - hf | Llama2 - chat | Llama2 - chat - hf |
---|---|---|---|---|
7B | 鏈接 | 鏈接 | 鏈接 | 鏈接 |
13B | 鏈接 | 鏈接 | 鏈接 | 鏈接 |
70B | 鏈接 | 鏈接 | 鏈接 | 鏈接 |
📄 許可證
自定義商業許可證可在此處獲取。
Llama 2社區許可協議
您需要與Meta共享聯繫信息才能訪問此模型。
通過點擊下方的“我接受”,或使用或分發Llama材料的任何部分或元素,即表示您同意受本協議的約束。
-
許可權利和再分發
- 權利授予:您被授予在Llama材料中體現的Meta知識產權或Meta擁有的其他權利下的非排他性、全球性、不可轉讓且免版稅的有限許可,以使用、複製、分發、拷貝、創作衍生作品並對Llama材料進行修改。
- 再分發和使用
- 若您將Llama材料或其任何衍生作品提供給第三方,您應向該第三方提供本協議的副本。
- 若您作為集成最終用戶產品的一部分從被許可方處接收Llama材料或其任何衍生作品,則本協議第2條不適用於您。
- 您必須在分發的所有Llama材料副本中,在作為此類副本一部分分發的“通知”文本文件中保留以下歸屬聲明:“Llama 2根據LLAMA 2社區許可證獲得許可,版權所有 (c) Meta Platforms, Inc. 保留所有權利。”
- 您使用Llama材料必須遵守適用的法律法規(包括貿易合規法律法規),並遵守Llama材料的可接受使用政策(可在此處獲取),該政策特此通過引用併入本協議。
- 您不得使用Llama材料或Llama材料的任何輸出或結果來改進任何其他大語言模型(不包括Llama 2或其衍生作品)。
-
額外商業條款:若在Llama 2版本發佈日期,被許可方或其關聯方提供的產品或服務的月活躍用戶在前一個日曆月超過7億,則您必須向Meta申請許可證,Meta可自行決定是否授予您該許可證。在Meta明確授予您此類權利之前,您無權行使本協議下的任何權利。
-
保修免責聲明:除非適用法律另有要求,否則Llama材料及其任何輸出和結果均按“現狀”提供,不提供任何形式的保證,無論是明示的還是暗示的,包括但不限於所有權、不侵權、適銷性或特定用途適用性的保證。您獨自負責確定使用或再分發Llama材料的適當性,並承擔使用Llama材料及其任何輸出和結果所涉及的任何風險。
-
責任限制:在任何情況下,Meta或其關聯方均不對因本協議引起的任何利潤損失或任何間接、特殊、後果性、偶發性、懲戒性或懲罰性損害承擔責任,無論責任理論如何,包括合同、侵權、疏忽、產品責任或其他方面,即使Meta或其關聯方已被告知此類損害的可能性。
-
知識產權
- 本協議未授予任何商標許可,與Llama材料相關的,除非在描述和再分發Llama材料時進行合理和慣常使用所需,否則Meta和被許可方均不得使用對方或其任何關聯方擁有或關聯的任何名稱或標記。
- 鑑於Meta對Llama材料及其衍生作品的所有權,對於您創作的Llama材料的任何衍生作品和修改,就您和Meta而言,您是且將是此類衍生作品和修改的所有者。
- 若您對Meta或任何實體提起訴訟或其他法律程序(包括在訴訟中的交叉索賠或反訴),聲稱Llama材料或Llama 2的輸出或結果,或上述任何部分構成侵犯您擁有或可許可的知識產權或其他權利,則本協議授予您的任何許可證將自此類訴訟或索賠提起之日起終止。您將賠償並使Meta免受任何第三方因您使用或分發Llama材料而產生或與之相關的任何索賠。
-
期限和終止:本協議的期限自您接受本協議或訪問Llama材料時開始,並將持續有效,直至根據本協議的條款和條件終止。若您違反本協議的任何條款或條件,Meta可終止本協議。本協議終止後,您應刪除並停止使用Llama材料。第3、4和7條在本協議終止後仍然有效。
-
適用法律和管轄權:本協議將受加利福尼亞州法律管轄並依其解釋,不考慮法律選擇原則,《聯合國國際貨物銷售合同公約》不適用於本協議。加利福尼亞州的法院對因本協議引起的任何爭議具有專屬管轄權。
Llama 2可接受使用政策
Meta致力於促進其工具和功能(包括Llama 2)的安全和公平使用。若您訪問或使用Llama 2,則表示您同意本可接受使用政策(“政策”)。本政策的最新版本可在ai.meta.com/llama/use-policy找到。
禁止使用情況
我們希望每個人都能安全、負責任地使用Llama 2。您同意您不會使用或允許他人使用Llama 2進行以下行為:
- 違反法律或他人權利,包括但不限於:
- 從事、促進、生成、促成、鼓勵、策劃、煽動或進一步推動非法或違法活動或內容,例如:
- 暴力或恐怖主義
- 對兒童的剝削或傷害,包括招攬、創作、獲取或傳播兒童剝削內容,或未能報告兒童性虐待材料
- 人口販運、剝削和性暴力
- 向未成年人非法分發信息或材料,包括淫穢材料,或未能對此類信息或材料採用法律要求的年齡限制措施
- 性招攬
- 任何其他犯罪活動
- 從事、促進、煽動或便利對個人或群體的騷擾、虐待、威脅或欺凌
- 從事、促進、煽動或便利在就業、就業福利、信貸、住房、其他經濟福利或其他基本商品和服務的提供中進行歧視或其他非法或有害行為
- 從事未經授權或無執照的任何專業實踐,包括但不限於金融、法律、醫療/健康或相關專業實踐
- 在未獲得適用法律要求的權利和同意的情況下,收集、處理、披露、生成或推斷個人的健康、人口統計或其他敏感個人或私人信息
- 從事或便利任何侵犯、盜用或以其他方式侵犯任何第三方權利的行為或生成任何內容,包括使用Llama 2材料的任何產品或服務的輸出或結果
- 創建、生成或便利創建惡意代碼、惡意軟件、計算機病毒,或進行任何可能禁用、負擔過重、干擾或損害網站或計算機系統的正常運行、完整性、操作或外觀的其他行為
- 從事、促進、生成、促成、鼓勵、策劃、煽動或進一步推動非法或違法活動或內容,例如:
- 從事、促進、煽動、便利或協助策劃或開展對個人造成死亡或身體傷害風險的活動,包括與以下方面相關的Llama 2使用:
- 軍事、戰爭、核工業或應用、間諜活動,用於受美國國務院維護的《國際武器貿易條例》(ITAR)管制的材料或活動
- 槍支和非法武器(包括武器開發)
- 非法藥物和受管制/受控物質
- 關鍵基礎設施、運輸技術或重型機械的操作
- 自我傷害或傷害他人,包括自殺、自殘和飲食失調
- 任何旨在煽動或促進暴力、虐待或對個人造成身體傷害的內容
- 故意欺騙或誤導他人,包括與以下方面相關的Llama 2使用:
- 生成、促進或進一步推動欺詐或虛假信息的創建或傳播
- 生成、促進或進一步推動誹謗性內容,包括創建誹謗性聲明、圖像或其他內容
- 生成、促進或進一步分發垃圾郵件
- 在未經同意、授權或合法權利的情況下冒充他人
- 聲稱Llama 2的使用或輸出是人類生成的
- 生成或便利虛假的在線互動,包括虛假評論和其他虛假在線互動方式
- 未能向最終用戶適當披露您的AI系統的任何已知危險
請通過以下方式之一報告任何違反本政策、軟件“漏洞”或其他可能導致違反本政策的問題:
- 報告模型問題:github.com/facebookresearch/llama
- 報告模型生成的有風險內容:developers.facebook.com/llama_output_feedback
- 報告漏洞和安全問題:facebook.com/whitehat/info
- 報告違反可接受使用政策或未經授權使用Llama的情況:LlamaUseReport@meta.com
額外信息
若要訪問此模型,您需要提供以下信息:
- 名字
- 姓氏
- 出生日期
- 國家
- 所屬機構
- 地理位置(通過IP定位)
通過點擊下方的“提交”,您表示接受許可證的條款,並確認您提供的信息將根據Meta隱私政策進行收集、存儲、處理和共享。



