模型简介
模型特点
模型能力
使用案例
🚀 SambaLingo匈牙利语聊天模型
SambaLingo匈牙利语聊天模型是一个经过人类对齐的聊天模型,支持匈牙利语和英语。它基于基础模型SambaLingo-Hungarian-Base,通过直接偏好优化进行训练。基础模型则是将Llama-2-7b适配到匈牙利语,在来自Cultura-X数据集匈牙利语部分的590亿个标记上进行训练。你可以在SambaLingo-chat-space尝试使用此模型。
🚀 快速开始
使用Hugging Face加载模型
加载分词器时,请确保设置use_fast=False
。
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", device_map="auto", torch_dtype="auto")
与模型管道交互
加载分词器时,请确保设置use_fast=False
。
from transformers import pipeline
pipe = pipeline("text-generation", model="sambanovasystems/SambaLingo-Hungarian-Chat", device_map="auto", use_fast=False)
messages = [
{"role": "user", "content": {YOUR_QUESTION}},
]
prompt = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipe(prompt)[0]
outputs = outputs["generated_text"]
建议的推理参数
- 温度(Temperature):0.8
- 重复惩罚(Repetition penalty):1.0
- 核采样概率(Top-p):0.9
提示模板
要使用此模型进行提示,请使用以下聊天模板:
<|user|>\n{question}</s>\n<|assistant|>\n
提示示例和生成结果
<|user|>
Mi a jelentőssége a magyar szürkemarhának?</s>
<|assistant|>
A magyar szürkemarha jelentős kulturális és gazdasági jelentőséggel bír Magyarország számára. Íme néhány ok, amiért:
1. Kulturális örökség: A magyar szürkemarha a magyar kultúra és örökség szimbóluma. A fajta évszázadok óta létezik, és a magyar puszta ikonikus szimbólumává vált.
2. Élelmiszer: A magyar szürkemarha húsa és teje kiváló minőségű, és keresett a magyar és a nemzetközi piacokon. A hús sovány, zsírszegény, és magas a fehérje- és vastartalma.
3. Turizmus: A magyar szürkemarha fontos turisztikai attrakció Magyarországon. A látogatók szívesen látogatják a szürkemarha farmokat, és megismerkednek a fajta történetével és tenyésztésével.
4. Génmegőrzés: A magyar szürkemarha fontos génmegőrző faj, amely segít megőrizni a hagyományos gazdálkodási gyakorlatokat és a helyi ökoszisztémákat.
5. Gazdasági hatás: A magyar szürkemarha fontos gazdasági tevékenység Magyarország számára. A fajta tenyésztése és feldolgozása munkahelyeket teremt, és bevételt generál a gazdálkodók és a feldolgozók számára.
Összességében a magyar szürkemarha jelentős kulturális, gazdasági és ökológiai jelentőséggel bír Magyarország számára. A fajta megőrzése és népszerűsítése fontos a magyar kultúra és örökség, valamint a helyi gazdaság és ökoszisztémák szempontjából.
✨ 主要特性
- 支持匈牙利语和英语两种语言。
- 基于强大的Llama-2-7b模型进行适配和优化。
- 通过直接偏好优化进行训练,更符合人类偏好。
📦 安装指南
该模型可通过Hugging Face的transformers
库进行加载,具体安装命令如下:
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("sambanovasystems/SambaLingo-Hungarian-Chat", device_map="auto", torch_dtype="auto")
📚 详细文档
模型描述
- 开发者:SambaNova Systems
- 模型类型:语言模型
- 支持语言:匈牙利语、英语
- 微调基础模型:Llama-2-7b
- 试用模型:SambaLingo-chat-space
- 相关论文:SambaLingo: Teaching Large Language Models New Languages
- 博客文章:sambalingo-open-source-language-experts
训练细节
对齐阶段遵循Zephyr-7B的训练方法,包括两个阶段:监督微调(SFT)和直接性能优化(DPO)。
SFT阶段在ultrachat_200k数据集和Google翻译后的版本上进行训练。训练一个epoch,全局批次大小为512,最大序列长度为2048个标记。使用线性衰减学习率2e-5,预热比例为10%。
DPO阶段在ultrafeedback数据集和cai-conversation-harmless数据集上进行训练,其中10%的数据经过Google翻译。训练三个epoch,全局批次大小为32。使用线性衰减学习率5e-7,预热比例为10%,DPO的正则化因子β=0.1。
分词器细节
通过添加来自新语言的最多25,000个非重叠标记,将基础Llama模型的词汇表从32,000个标记扩展到57,000个标记。
评估
评估结果请参考我们的论文:SambaLingo: Teaching Large Language Models New Languages
使用方式
直接使用
使用此模型需遵守Meta的Llama 2社区许可协议。请在下载模型权重前仔细阅读并接受许可协议。
超出适用范围的使用
SambaLingo不应用于以下场景:
- 关键任务应用程序。
- 涉及他人安全的应用程序。
- 做出高度重要决策的场景。
偏差、风险和局限性
与所有大语言模型一样,SambaLingo存在一定的局限性:
- 幻觉问题:模型有时可能生成听起来合理但事实上不正确或无关的信息。
- 代码切换:模型可能在单个回复中无意地在不同语言或方言之间切换,影响输出的连贯性和可理解性。
- 重复问题:模型可能会产生重复的短语或句子,导致回复的吸引力和信息量降低。
- 编码和数学能力:模型在生成准确代码或解决复杂数学问题方面的性能可能有限。
- 毒性问题:模型可能会无意中生成包含不适当或有害内容的回复。
致谢
我们衷心感谢开源AI社区;没有开源,这项工作将无法完成。SambaNova支持开源社区,并希望积极为这一倡议做出贡献。
特别感谢以下团队:
- Meta开源了LLama 2和FLORES-200数据集。
- Nguyen等人开源了CulturaX数据集。
- CohereAI发布了AYA-101并开源了多语言指令调优数据集。
- EleutherAI提供了开源评估框架。
- Hugging Face-H4团队开源了Zephyr训练方法和对齐手册仓库。
引用SambaLingo
@misc{csaki2024sambalingo,
title={SambaLingo: Teaching Large Language Models New Languages},
author={Zoltan Csaki and Bo Li and Jonathan Li and Qiantong Xu and Pian Pawakapan and Leon Zhang and Yun Du and Hengyu Zhao and Changran Hu and Urmish Thakker},
year={2024},
eprint={2404.05829},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
📄 许可证
本模型使用Llama 2许可证。



