Model Overview
Model Features
Model Capabilities
Use Cases
🚀 VAGO solutions Llama-3-SauerkrautLM-8b-Instruct
Llama-3-SauerkrautLM-8b-Instruct 是 VAGO Solutions 和 Hyperspace.ai 聯合打造的一款模型,它是強大的 meta-llama/Meta-Llama-3-8B-Instruct 的改良版本,與 DPO 對齊,能為用戶提供更優質的服務。
🚀 快速開始
模型版本鏈接
模型 | HF | EXL2 | GGUF | AWQ |
---|---|---|---|---|
Llama-3-SauerkrautLM-8b-Instruct | 鏈接 | 鏈接 | 鏈接 | 即將推出 |
✨ 主要特性
- 聯合研發:由 VAGO Solutions 和 Hyperspace.ai 聯合打造。
- 語言支持:支持德語和英語兩種語言。
- DPO 對齊:與 DPO 對齊,提升模型性能。
- 數據優化:通過輸入精心策劃的德語數據,顯著提升了模型的能力。
📦 安裝指南
文檔未提供具體安裝步驟,暫不展示。
💻 使用示例
基礎用法
英文提示模板
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful AI assistant.<|eot_id|><|start_header_id|>user<|end_header_id|>
Input<|eot_id|><|start_header_id|>assistant<|end_header_id|>
德文提示模板
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Du bist ein freundlicher und hilfreicher deutscher KI-Assistent.<|eot_id|><|start_header_id|>user<|end_header_id|>
Input<|eot_id|><|start_header_id|>assistant<|end_header_id|>
高級用法
德文輸出示例
Prompt: Erkläre mir die Vorteile für das Fine-Tuning von Meta's LLama Modellen.
Antwort:
Sehr gern!
Fine-tuning von Meta's LLaMA-Modellen ist eine sehr effektive Möglichkeit, um Ihre Anwendung oder Ihr Projekt mit einer hochentwickelten Sprachverarbeitung auszustatten.
Die Vorteile des Fine-Tunings von LLaMA-Modellen sind:
Adaptation an spezielle Aufgaben: Durch das Fine-Tuning können Sie die Modelle auf Ihre speziellen Bedürfnisse und Anforderungen anpassen.
Dies ermöglicht es Ihnen, die Leistung der Modelle in Ihren Anwendungen zu verbessern.
Verbesserte Genauigkeit: Die fine-tuned Modelle lernen, sich an die spezifischen Merkmale Ihres Datenbestands anzupassen, was zu einer besseren Genauigkeit bei der Textklassifizierung, -generierung, -summarisierung usw. führt.
Anpassung an Branche oder Domain: Wenn Sie beispielsweise ein Medizinprojekt haben, können Sie die Modelle auf medizinische Fachterminologie und -konzepte trainieren, um eine höhere Präzision bei der Analyse medizinischer Texte zu erzielen.
Kosten-Effektivität: Im Vergleich zum Training neuer Modelle von Grund auf kann das Fine-Tuning viel kosteneffektiver sein, da Sie nur einen kleinen Teil des Trainingsdatums benötigen, um die Modelle an Ihre spezifischen Anforderungen anzupassen.
Schnellere Entwicklung: Das Fine-Tuning ermöglicht es Entwicklern, schnell neue Funktionen und Features in ihre Anwendungen einzufügen, ohne dass sie lange warten müssen, bis neue Modelle trainiert werden.
Bessere Interpretierbarkeit: Da die fine-tuned Modelle auf Ihre spezifischen Daten bestimmt wurden, können Sie leichter verstehen, warum bestimmte Entscheidungen getroffen werden, was wichtig ist, wenn es um Transparenz und Verantwortlichkeit geht.
Insgesamt bietet das Fine-Tuning von LLaMA-Modellen eine flexible und effektive Möglichkeit, um Ihre Anwendungen und Projekte durch die Integration von fortschrittlichen Sprachmodellen zu verbessern.
📚 詳細文檔
模型詳情
屬性 | 詳情 |
---|---|
模型類型 | Llama-3-SauerkrautLM-8b-Instruct 是基於 meta-llama/Meta-Llama-3-8B-Instruct 的微調模型 |
語言 | 德語、英語 |
許可證 | meta-llama |
聯繫方式 | VAGO solutions,Hyperspace.ai |
訓練過程
- 該模型採用兩階段 DPO 微調進行訓練,第一階段使用 70k 數據訓練 1 個週期,第二階段使用 20k 數據再訓練 1 個週期。
- LaserRMT 版本即將推出。
🔧 技術細節
文檔未提供具體技術細節,暫不展示。
📄 許可證
META LLAMA 3 社區許可協議
Meta Llama 3 版本發佈日期:2024 年 4 月 18 日
“協議”指本協議中規定的使用、複製、分發和修改 Llama 材料的條款和條件。
“文檔”指 Meta 在 https://llama.meta.com/get-started/ 上分發的隨 Meta Llama 3 附帶的規格、手冊和文檔。
“被許可方”或“您”指您,或您的僱主,或任何其他個人或實體(如果您代表該個人或實體簽訂本協議),該個人或實體需達到適用法律、規則或法規要求的提供法律同意的年齡,並且如果您代表其簽訂本協議,具有約束您的僱主或該其他個人或實體的法律權力。
“Meta Llama 3”指 Meta 在 https://llama.meta.com/llama-downloads 上分發的基礎大語言模型以及軟件和算法,包括機器學習模型代碼、訓練好的模型權重、推理啟用代碼、訓練啟用代碼、微調啟用代碼和上述內容的其他元素。
“Llama 材料”指根據本協議提供的 Meta 專有 Meta Llama 3 和文檔(及其任何部分)的統稱。
“Meta”或“我們”指 Meta Platforms Ireland Limited(如果您位於歐洲經濟區或瑞士,或者如果您是一個實體,您的主要營業地位於歐洲經濟區或瑞士)和 Meta Platforms, Inc.(如果您位於歐洲經濟區或瑞士以外)。
-
許可權利和再分發
- a. 權利授予。您被授予一項非排他性、全球性、不可轉讓且免版稅的有限許可,可根據 Meta 在 Llama 材料中體現的知識產權或其他權利,使用、複製、分發、拷貝、創作衍生作品並對 Llama 材料進行修改。
- b. 再分發和使用
- i. 如果您分發或提供 Llama 材料(或其任何衍生作品),或使用其中任何材料的產品或服務,包括另一個人工智能模型,您應 (A) 隨任何此類 Llama 材料提供本協議的副本;並且 (B) 在相關網站、用戶界面、博客文章、關於頁面或產品文檔上顯著顯示“Built with Meta Llama 3”。如果您使用 Llama 材料創建、訓練、微調或以其他方式改進一個人工智能模型,並進行分發或提供該模型,您還應在任何此類人工智能模型名稱的開頭包含“Llama 3”。
- ii. 如果您作為集成最終用戶產品的一部分從被許可方處接收 Llama 材料或其任何衍生作品,則本協議第 2 條不適用於您。
- iii. 您必須在您分發的所有 Llama 材料副本中,在作為此類副本一部分分發的“通知”文本文件中保留以下歸屬聲明:“Meta Llama 3 已根據 Meta Llama 3 社區許可獲得許可,版權所有 © Meta Platforms, Inc. 保留所有權利。”
- iv. 您對 Llama 材料的使用必須遵守適用的法律法規(包括貿易合規法律法規),並遵守 Llama 材料的可接受使用政策(可在 https://llama.meta.com/llama3/use-policy 上獲取),該政策特此通過引用併入本協議。
- v. 您不得使用 Llama 材料或 Llama 材料的任何輸出或結果來改進任何其他大語言模型(不包括 Meta Llama 3 或其衍生作品)。
-
額外商業條款。如果在 Meta Llama 3 版本發佈日期,被許可方或其關聯方提供的產品或服務在前一個日曆月的月活躍用戶數超過 7 億,則您必須向 Meta 請求許可,Meta 可自行決定是否授予您許可,並且在 Meta 另行明確授予您此類權利之前,您無權行使本協議下的任何權利。
-
保修免責聲明。除非適用法律要求,否則 Llama 材料及其任何輸出和結果均按“現狀”提供,不提供任何形式的保證,Meta 否認所有形式的保證,無論是明示的還是暗示的,包括但不限於所有權、不侵權、適銷性或特定用途適用性的任何保證。您獨自負責確定使用或再分發 Llama 材料的適當性,並承擔使用 Llama 材料及其任何輸出和結果相關的任何風險。
-
責任限制。在任何情況下,Meta 或其關聯方均不對因本協議引起的任何利潤損失或任何間接、特殊、後果性、偶發性、懲戒性或懲罰性損害承擔責任,無論責任理論如何(包括合同、侵權、疏忽、產品責任或其他),即使 Meta 或其關聯方已被告知此類損害的可能性。
-
知識產權
- a. 本協議未授予商標許可,關於 Llama 材料,除非為合理和慣常描述及再分發 Llama 材料所需,或如本節 5(a) 所述,Meta 和被許可方均不得使用對方或其任何關聯方擁有或關聯的任何名稱或標記。Meta 在此授予您僅為遵守第 1.b.i 條最後一句所需使用“Llama 3”(“標記”)的許可。您將遵守 Meta 的品牌指南(目前可在 https://about.meta.com/brand/resources/meta/company-brand/ 上獲取)。因您使用標記而產生的所有商譽均歸 Meta 所有。
- b. 鑑於 Meta 對 Llama 材料及其為 Meta 製作的衍生作品的所有權,就您製作的 Llama 材料的任何衍生作品和修改而言,在您和 Meta 之間,您是且將是此類衍生作品和修改的所有者。
- c. 如果您對 Meta 或任何實體提起訴訟或其他程序(包括在訴訟中的交叉索賠或反訴),聲稱 Llama 材料或 Meta Llama 3 的輸出或結果,或上述任何內容的任何部分,構成侵犯您擁有或可許可的知識產權或其他權利,則本協議授予您的任何許可應自提起此類訴訟或索賠之日起終止。您將賠償並使 Meta 免受因您使用或分發 Llama 材料而引起的或與之相關的任何第三方索賠。
-
期限和終止。本協議的期限將自您接受本協議或訪問 Llama 材料時開始,並將持續有效,直至根據本協議的條款和條件終止。如果您違反本協議的任何條款或條件,Meta 可終止本協議。本協議終止後,您應刪除並停止使用 Llama 材料。第 3、4 和 7 條在本協議終止後仍然有效。
-
適用法律和管轄權。本協議將受加利福尼亞州法律管轄並依其解釋,不考慮法律選擇原則,《聯合國國際貨物銷售合同公約》不適用於本協議。加利福尼亞州的法院對因本協議引起的任何爭議具有專屬管轄權。
Meta Llama 3 可接受使用政策
Meta 致力於促進其工具和功能(包括 Meta Llama 3)的安全和公平使用。如果您訪問或使用 Meta Llama 3,即表示您同意本可接受使用政策(“政策”)。本政策的最新版本可在 https://llama.meta.com/llama3/use-policy 上找到。
禁止使用
我們希望每個人都能安全、負責任地使用 Meta Llama 3。您同意您不會使用或允許他人使用 Meta Llama 3 進行以下行為:
- 違反法律或他人權利,包括:
- 參與、促進、生成、促成、鼓勵、策劃、煽動或進一步實施非法或違法活動或內容,例如:
- 暴力或恐怖主義
- 對兒童的剝削或傷害,包括招攬、創建、獲取或傳播兒童剝削內容,或未報告兒童性虐待材料
- 人口販運、剝削和性暴力
- 向未成年人非法分發信息或材料,包括淫穢材料,或未對此類信息或材料採用法律要求的年齡限制
- 性招攬
- 任何其他犯罪活動
- 參與、促進、煽動或便利對個人或群體的騷擾、虐待、威脅或欺凌
- 參與、促進、煽動或便利在就業、就業福利、信貸、住房、其他經濟福利或其他基本商品和服務的提供方面的歧視或其他非法或有害行為
- 從事未經授權或無執照的任何專業實踐,包括但不限於金融、法律、醫療/健康或相關專業實踐
- 在未獲得適用法律要求的權利和同意的情況下,收集、處理、披露、生成或推斷個人的健康、人口統計或其他敏感個人或私人信息
- 從事或便利任何侵犯、盜用或以其他方式侵犯任何第三方權利的行為,或生成此類內容,包括使用 Llama 材料的任何產品或服務的輸出或結果
- 創建、生成或便利創建惡意代碼、惡意軟件、計算機病毒,或進行任何可能禁用、使負擔過重、干擾或損害網站或計算機系統的正常運行、完整性、操作或外觀的其他操作
- 參與、促進、生成、促成、鼓勵、策劃、煽動或進一步實施非法或違法活動或內容,例如:
- 參與、促進、煽動、便利或協助策劃或開展對個人造成死亡或身體傷害風險的活動,包括與以下方面相關的 Meta Llama 3 使用:
- 軍事、戰爭、核工業或應用、間諜活動,用於受美國國務院維護的《國際武器貿易條例》(ITAR)管制的材料或活動
- 槍支和非法武器(包括武器開發)
- 非法藥物和受管制/受控物質
- 關鍵基礎設施、運輸技術或重型機械的運營
- 自我傷害或傷害他人,包括自殺、自殘和飲食失調
- 任何旨在煽動或促進對個人的暴力、虐待或任何身體傷害的內容
- 故意欺騙或誤導他人,包括與以下方面相關的 Meta Llama 3 使用:
- 生成、促進或進一步實施欺詐或創建或促進虛假信息
- 生成、促進或進一步傳播誹謗性內容,包括創建誹謗性聲明、圖像或其他內容
- 生成、促進或進一步分發垃圾郵件
- 在未經同意、授權或合法權利的情況下冒充他人
- 聲稱使用 Meta Llama 3 或其輸出是人類生成的
- 生成或便利虛假的在線互動,包括虛假評論和其他虛假在線互動方式
- 未向最終用戶適當披露您的人工智能系統的任何已知危險
請通過以下方式之一報告本政策的任何違反行為、軟件“漏洞”或其他可能導致違反本政策的問題: - 報告模型問題:https://github.com/meta-llama/llama3 - 報告模型生成的風險內容:developers.facebook.com/llama_output_feedback - 報告漏洞和安全問題:facebook.com/whitehat/info - 報告違反可接受使用政策或未經授權使用 Meta Llama 3 的情況:LlamaUseReport@meta.com
額外信息
額外信息字段:
- 名字:文本輸入
- 姓氏:文本輸入
- 出生日期:日期選擇器
- 國家:國家選擇
- 所屬機構:文本輸入
- 地理位置:IP 定位
通過點擊下方的“提交”,我接受許可協議的條款,並確認我提供的信息將根據 Meta 隱私政策 進行收集、存儲、處理和共享。
額外按鈕內容:提交
評估
開放大語言模型排行榜
使用 lm-evaluation-benchmark-harness 0.4.2 進行評估
指標 | 值 |
---|---|
平均值 | 74.57 |
ARC (25-shot) | 74.66 |
HellaSwag (10-shot) | 89.60 |
MMLU (5-shot) | 66.55 |
TruthfulQA (0-shot) | 66.32 |
Winogrande (5-shot) | 80.98 |
GSM8K (5-shot) | 69.29 |
MT-Bench 英文評估
########## 第一回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 1 8.15625
########## 第二回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 2 7.65
########## 平均值 ##########
score
model
Llama-3-SauerkrautLM-8b-Instruct 7.903125 *
- 由於特定的指令訓練,英文 MT-Bench 得分略低於原始的 LLama-3-8B-Instruct
MT-Bench 德文評估
########## 第一回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 1 7.675
########## 第二回合 ##########
score
model turn
Llama-3-SauerkrautLM-8b-Instruct 2 7.6375
########## 平均值 ##########
score
model
Llama-3-SauerkrautLM-8b-Instruct 7.65625
德文 RAG 大語言模型評估
修復後的結果:https://github.com/huggingface/lighteval/pull/171
| Task |Version|Metric|Value| |Stderr|
|------------------------------------------------------|------:|------|----:|---|-----:|
|all | |acc |0.910|± |0.0084|
|community:german_rag_eval:_average:0 | |acc |0.910|± |0.0084|
|community:german_rag_eval:choose_context_by_question:0| 0|acc |0.928|± |0.0082|
|community:german_rag_eval:choose_question_by_context:0| 0|acc |0.824|± |0.0120|
|community:german_rag_eval:con
免責聲明
文檔未提供具體免責聲明內容,暫不展示。
聯繫信息
合作信息
文檔未提供具體合作信息,暫不展示。
致謝
文檔未提供具體致謝內容,暫不展示。



