🚀 Occiglot-7B-DE-EN-Instruct
Occiglot-7B-DE-EN-Instruct是一款面向西方的多语言生成式语言模型,支持德语和英语。它基于70亿参数的occiglot-7b-eu5模型微调而来,在额外的1.8亿多语言和代码指令标记数据上进行训练。不过,该模型未进行安全对齐,可能会生成有问题的输出。
🚀 快速开始
Occiglot-7B-DE-EN-Instruct 是 occiglot-7b-eu5 的指令调优版本,这是一个由 Occiglot Research Collective 训练的、具有70亿参数的生成式语言模型,支持德语和英语。它在1.8亿额外的多语言和代码指令标记数据上进行了训练。请注意,该模型未进行安全对齐,可能会生成有问题的输出。
这是一个正在进行的多语言语言模型开放研究项目的首次发布。如果您想为自己的语言训练模型或正在进行评估工作,请联系我们或加入我们的 Discord服务器。我们欢迎合作!
特别感谢 Disco Research、Jan Philipp Harries 和 Björn Plüster 与我们分享德语数据集。
✨ 主要特性
📦 安装指南
文档未提供安装步骤,跳过该章节。
💻 使用示例
基础用法
>>> from transformers import AutoTokenizer, MistralForCausalLM, set_seed
>>> tokenizer = AutoTokenizer.from_pretrained("occiglot/occiglot-7b-de-en-instruct")
>>> model = MistralForCausalLM.from_pretrained('occiglot/occiglot-7b-de-en-instruct')
>>> set_seed(42)
>>> messages = [
>>> {"role": "system", 'content': 'You are a helpful assistant. Please give short and concise answers.'},
>>> {"role": "user", "content": "Wer ist der deutsche Bundeskanzler?"},
>>> ]
>>> tokenized_chat = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_dict=False, return_tensors='pt',)
>>> set_seed(42)
>>> outputs = model.generate(tokenized_chat.to('cuda'), max_new_tokens=200,)
>>> tokenizer.decode(out[0][len(tokenized_chat[0]):])
'Der deutsche Bundeskanzler ist Olaf Scholz.'
高级用法
文档未提供高级用法示例,跳过该部分。
📚 详细文档
模型详情
数据集
训练数据根据总标记数在德语和英语之间平均分配。感谢 Disco Research、Jan Philipp Harries 和 Björn Plüster 向我们提供他们的数据集。
英语和代码
德语
训练设置
- 在8xH100上进行全指令微调。
- 0.6 - 4个训练周期(取决于数据集采样)。
- 框架:axolotl
- 精度:bf16
- 优化器:AdamW
- 全局批量大小:128(上下文长度为8192)
- 带预热的余弦退火
分词器
分词器与 Mistral-7B-v0.1 保持一致。
评估
初步评估结果如下。请注意,非英语结果基于部分机器翻译的数据集和英语提示(Belebele 和 Okapi框架),因此应谨慎解释,例如,可能偏向于英语模型性能。目前,我们正在为西班牙语、法语、德语和意大利语开发更合适的基准测试。
评估结果
所有5种语言
|
平均 |
arc_challenge |
belebele |
hellaswag |
mmlu |
truthfulqa |
Occiglot-7b-eu5 |
0.516895 |
0.508109 |
0.675556 |
0.718963 |
0.402064 |
0.279782 |
Occiglot-7b-eu5-instruct |
0.537799 |
0.53632 |
0.691111 |
0.731918 |
0.405198 |
0.32445 |
Occiglot-7b-de-en |
0.518337 |
0.496297 |
0.715111 |
0.669034 |
0.412545 |
0.298697 |
Occiglot-7b-de-en-instruct |
0.543173 |
0.530826 |
0.745778 |
0.67676 |
0.411326 |
0.351176 |
Leo-mistral-hessianai-7b |
0.484806 |
0.462103 |
0.653556 |
0.642242 |
0.379208 |
0.28692 |
Mistral-7b-v0.1 |
0.547111 |
0.528937 |
0.768444 |
0.682516 |
0.448253 |
0.307403 |
Mistral-7b-instruct-v0.2 |
0.56713 |
0.547228 |
0.741111 |
0.69455 |
0.422501 |
0.430262 |
英语
|
平均 |
arc_challenge |
belebele |
hellaswag |
mmlu |
truthfulqa |
Occiglot-7b-eu5 |
0.59657 |
0.530717 |
0.726667 |
0.789882 |
0.531904 |
0.403678 |
Occiglot-7b-eu5-instruct |
0.617905 |
0.558874 |
0.746667 |
0.799841 |
0.535109 |
0.449 |
Occiglot-7b-de-en |
0.518337 |
0.496297 |
0.715111 |
0.669034 |
0.412545 |
0.298697 |
Occiglot-7b-de-en-instruct |
0.543173 |
0.530826 |
0.745778 |
0.67676 |
0.411326 |
0.351176 |
Leo-mistral-hessianai-7b |
0.600949 |
0.522184 |
0.736667 |
0.777833 |
0.538812 |
0.429248 |
Mistral-7b-v0.1 |
0.668385 |
0.612628 |
0.844444 |
0.834097 |
0.624555 |
0.426201 |
Mistral-7b-instruct-v0.2 |
0.713657 |
0.637372 |
0.824444 |
0.846345 |
0.59201 |
0.668116 |
德语
|
平均 |
arc_challenge_de |
belebele_de |
hellaswag_de |
mmlu_de |
truthfulqa_de |
Occiglot-7b-eu5 |
0.508311 |
0.493584 |
0.646667 |
0.666631 |
0.483406 |
0.251269 |
Occiglot-7b-eu5-instruct |
0.531506 |
0.529512 |
0.667778 |
0.685205 |
0.488234 |
0.286802 |
Occiglot-7b-de-en |
0.540085 |
0.50556 |
0.743333 |
0.67421 |
0.514633 |
0.26269 |
Occiglot-7b-de-en-instruct |
0.566474 |
0.54491 |
0.772222 |
0.688407 |
0.515915 |
0.310914 |
Leo-mistral-hessianai-7b |
0.517766 |
0.474765 |
0.691111 |
0.682109 |
0.488309 |
0.252538 |
Mistral-7b-v0.1 |
0.527957 |
0.476476 |
0.738889 |
0.610589 |
0.529567 |
0.284264 |
Mistral-7b-instruct-v0.2 |
0.535215 |
0.485885 |
0.688889 |
0.622438 |
0.501961 |
0.376904 |
🔧 技术细节
文档未提供技术实现细节,跳过该章节。
📄 许可证
Apache 2.0
相关链接
- https://huggingface.co/collections/occiglot/occiglot-eu5-7b-v01-65dbed502a6348b052695e01
- https://huggingface.co/NikolayKozloff/occiglot-7b-de-en-GGUF