模型概述
模型特點
模型能力
使用案例
🚀 SambaLingo匈牙利語聊天模型
SambaLingo匈牙利語聊天模型是一個經過人類對齊的聊天模型,支持匈牙利語和英語。它基於基礎模型SambaLingo-Hungarian-Base,通過直接偏好優化進行訓練。基礎模型則是將Llama-2-7b適配到匈牙利語,在來自Cultura-X數據集匈牙利語部分的590億個標記上進行訓練。你可以在SambaLingo-chat-space嘗試使用此模型。
🚀 快速開始
使用Hugging Face加載模型
加載分詞器時,請確保設置use_fast=False
。
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", device_map="auto", torch_dtype="auto")
與模型管道交互
加載分詞器時,請確保設置use_fast=False
。
from transformers import pipeline
pipe = pipeline("text-generation", model="sambanovasystems/SambaLingo-Hungarian-Chat", device_map="auto", use_fast=False)
messages = [
{"role": "user", "content": {YOUR_QUESTION}},
]
prompt = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipe(prompt)[0]
outputs = outputs["generated_text"]
建議的推理參數
- 溫度(Temperature):0.8
- 重複懲罰(Repetition penalty):1.0
- 核採樣概率(Top-p):0.9
提示模板
要使用此模型進行提示,請使用以下聊天模板:
<|user|>\n{question}</s>\n<|assistant|>\n
提示示例和生成結果
<|user|>
Mi a jelentőssége a magyar szürkemarhának?</s>
<|assistant|>
A magyar szürkemarha jelentős kulturális és gazdasági jelentőséggel bír Magyarország számára. Íme néhány ok, amiért:
1. Kulturális örökség: A magyar szürkemarha a magyar kultúra és örökség szimbóluma. A fajta évszázadok óta létezik, és a magyar puszta ikonikus szimbólumává vált.
2. Élelmiszer: A magyar szürkemarha húsa és teje kiváló minőségű, és keresett a magyar és a nemzetközi piacokon. A hús sovány, zsírszegény, és magas a fehérje- és vastartalma.
3. Turizmus: A magyar szürkemarha fontos turisztikai attrakció Magyarországon. A látogatók szívesen látogatják a szürkemarha farmokat, és megismerkednek a fajta történetével és tenyésztésével.
4. Génmegőrzés: A magyar szürkemarha fontos génmegőrző faj, amely segít megőrizni a hagyományos gazdálkodási gyakorlatokat és a helyi ökoszisztémákat.
5. Gazdasági hatás: A magyar szürkemarha fontos gazdasági tevékenység Magyarország számára. A fajta tenyésztése és feldolgozása munkahelyeket teremt, és bevételt generál a gazdálkodók és a feldolgozók számára.
Összességében a magyar szürkemarha jelentős kulturális, gazdasági és ökológiai jelentőséggel bír Magyarország számára. A fajta megőrzése és népszerűsítése fontos a magyar kultúra és örökség, valamint a helyi gazdaság és ökoszisztémák szempontjából.
✨ 主要特性
- 支持匈牙利語和英語兩種語言。
- 基於強大的Llama-2-7b模型進行適配和優化。
- 通過直接偏好優化進行訓練,更符合人類偏好。
📦 安裝指南
該模型可通過Hugging Face的transformers
庫進行加載,具體安裝命令如下:
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", device_map="auto", torch_dtype="auto")
📚 詳細文檔
模型描述
- 開發者:SambaNova Systems
- 模型類型:語言模型
- 支持語言:匈牙利語、英語
- 微調基礎模型:Llama-2-7b
- 試用模型:SambaLingo-chat-space
- 相關論文:SambaLingo: Teaching Large Language Models New Languages
- 博客文章:sambalingo-open-source-language-experts
訓練細節
對齊階段遵循Zephyr-7B的訓練方法,包括兩個階段:監督微調(SFT)和直接性能優化(DPO)。
SFT階段在ultrachat_200k數據集和Google翻譯後的版本上進行訓練。訓練一個epoch,全局批次大小為512,最大序列長度為2048個標記。使用線性衰減學習率2e-5,預熱比例為10%。
DPO階段在ultrafeedback數據集和cai-conversation-harmless數據集上進行訓練,其中10%的數據經過Google翻譯。訓練三個epoch,全局批次大小為32。使用線性衰減學習率5e-7,預熱比例為10%,DPO的正則化因子β=0.1。
分詞器細節
通過添加來自新語言的最多25,000個非重疊標記,將基礎Llama模型的詞彙表從32,000個標記擴展到57,000個標記。
評估
評估結果請參考我們的論文:SambaLingo: Teaching Large Language Models New Languages
使用方式
直接使用
使用此模型需遵守Meta的Llama 2社區許可協議。請在下載模型權重前仔細閱讀並接受許可協議。
超出適用範圍的使用
SambaLingo不應用於以下場景:
- 關鍵任務應用程序。
- 涉及他人安全的應用程序。
- 做出高度重要決策的場景。
偏差、風險和侷限性
與所有大語言模型一樣,SambaLingo存在一定的侷限性:
- 幻覺問題:模型有時可能生成聽起來合理但事實上不正確或無關的信息。
- 代碼切換:模型可能在單個回覆中無意地在不同語言或方言之間切換,影響輸出的連貫性和可理解性。
- 重複問題:模型可能會產生重複的短語或句子,導致回覆的吸引力和信息量降低。
- 編碼和數學能力:模型在生成準確代碼或解決複雜數學問題方面的性能可能有限。
- 毒性問題:模型可能會無意中生成包含不適當或有害內容的回覆。
致謝
我們衷心感謝開源AI社區;沒有開源,這項工作將無法完成。SambaNova支持開源社區,並希望積極為這一倡議做出貢獻。
特別感謝以下團隊:
- Meta開源了LLama 2和FLORES-200數據集。
- Nguyen等人開源了CulturaX數據集。
- CohereAI發佈了AYA-101並開源了多語言指令調優數據集。
- EleutherAI提供了開源評估框架。
- Hugging Face-H4團隊開源了Zephyr訓練方法和對齊手冊倉庫。
引用SambaLingo
@misc{csaki2024sambalingo,
title={SambaLingo: Teaching Large Language Models New Languages},
author={Zoltan Csaki and Bo Li and Jonathan Li and Qiantong Xu and Pian Pawakapan and Leon Zhang and Yun Du and Hengyu Zhao and Changran Hu and Urmish Thakker},
year={2024},
eprint={2404.05829},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📄 許可證
本模型使用Llama 2許可證。



