🚀 RoLlama3-8b-Instruct-2024-06-28模型
RoLlama3是专为罗马尼亚语设计的预训练和微调生成式文本模型家族。本仓库是指令8B模型的相关内容,其他模型的链接可在页面底部找到。
🚀 快速开始
使用以下代码即可开始使用该模型:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("OpenLLM-Ro/RoLlama3-8b-Instruct-2024-06-28")
model = AutoModelForCausalLM.from_pretrained("OpenLLM-Ro/RoLlama3-8b-Instruct-2024-06-28")
instruction = "Ce jocuri de societate pot juca cu prietenii mei?"
chat = [
{"role": "system", "content": "Ești un asistent folositor, respectuos și onest. Încearcă să ajuți cât mai mult prin informațiile oferite, excluzând răspunsuri toxice, rasiste, sexiste, periculoase și ilegale."},
{"role": "user", "content": instruction},
]
prompt = tokenizer.apply_chat_template(chat, tokenize=False, system_message="")
inputs = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
outputs = model.generate(input_ids=inputs, max_new_tokens=128)
print(tokenizer.decode(outputs[0]))
✨ 主要特性
模型详情
模型描述
OpenLLM-Ro是构建专门针对罗马尼亚语的大语言模型(LLM)的首个开源项目。OpenLLM-Ro开发并公开发布了一系列罗马尼亚语大语言模型,包括基础模型、指令模型和聊天模型等多种类型。
模型来源
- 仓库地址:https://github.com/OpenLLM-Ro/LLaMA-Factory
- 论文地址:https://arxiv.org/abs/2406.18266
预期用途
预期用例
RoLlama3主要用于罗马尼亚语的研究。基础模型可适用于各种自然语言任务,而经过指令和聊天微调的模型则适用于类似助手的聊天场景。
非预期用途
禁止以任何违反许可证、适用法律法规的方式使用该模型,也不得用于除罗马尼亚语之外的其他语言。
📚 详细文档
学术基准
模型 |
平均得分 |
ARC得分 |
MMLU得分 |
Winogrande得分 |
Hellaswag得分 |
GSM8k得分 |
TruthfulQA得分 |
Llama-3-8B-Instruct |
50.62 |
43.69 |
52.04 |
59.33 |
53.19 |
43.87 |
51.59 |
RoLlama3-8b-Instruct-2024-06-28 |
50.56 |
44.70 |
52.19 |
67.23 |
57.69 |
30.23 |
51.34 |
RoLlama3-8b-Instruct-2024-10-09 |
52.21 |
47.94 |
53.50 |
66.06 |
59.72 |
40.16 |
45.90 |
RoLlama3-8b-Instruct-DPO-2024-10-09 |
49.96 |
46.29 |
53.29 |
65.57 |
58.15 |
34.77 |
41.70 |
下游任务
LaRoSeDa和WMT任务
模型 |
LaRoSeDa少样本二元Macro F1 |
LaRoSeDa少样本多分类Macro F1 |
LaRoSeDa微调二元Macro F1 |
LaRoSeDa微调多分类Macro F1 |
WMT少样本EN - RO Bleu |
WMT少样本RO - EN Bleu |
WMT微调EN - RO Bleu |
WMT微调RO - EN Bleu |
Llama-3-8B-Instruct |
95.88 |
56.21 |
98.53 |
86.19 |
18.88 |
30.98 |
28.02 |
40.28 |
RoLlama3-8b-Instruct-2024-06-28 |
97.52 |
67.41 |
94.15 |
87.13 |
24.01 |
27.36 |
26.53 |
40.36 |
RoLlama3-8b-Instruct-2024-10-09 |
95.58 |
61.20 |
96.46 |
87.26 |
22.92 |
24.28 |
27.31 |
40.52 |
RoLlama3-8b-Instruct-DPO-2024-10-09 |
97.48 |
54.00 |
- |
- |
22.09 |
23.00 |
- |
- |
XQuAD和STS任务
模型 |
XQuAD少样本EM |
XQuAD少样本F1 |
XQuAD微调EM |
XQuAD微调F1 |
STS少样本Spearman |
STS少样本Pearson |
STS微调Spearman |
STS微调Pearson |
Llama-3-8B-Instruct |
39.47 |
58.67 |
67.65 |
82.77 |
73.04 |
72.36 |
83.49 |
84.06 |
RoLlama3-8b-Instruct-2024-06-28 |
39.43 |
59.50 |
44.45 |
59.76 |
77.20 |
77.87 |
85.80 |
86.05 |
RoLlama3-8b-Instruct-2024-10-09 |
18.89 |
31.79 |
50.84 |
65.18 |
77.60 |
76.86 |
86.70 |
87.09 |
RoLlama3-8b-Instruct-DPO-2024-10-09 |
26.05 |
42.77 |
- |
- |
79.64 |
79.52 |
- |
- |
MT - Bench
模型 |
平均得分 |
第一轮得分 |
第二轮得分 |
罗马尼亚语回答数量 |
Llama-3-8B-Instruct |
5.96 |
6.16 |
5.76 |
158/160 |
RoLlama3-8b-Instruct-2024-06-28 |
5.15 |
6.03 |
4.28 |
160/160 |
RoLlama3-8b-Instruct-2024-10-09 |
5.38 |
6.09 |
4.67 |
160/160 |
RoLlama3-8b-Instruct-DPO-2024-10-09 |
5.87 |
6.22 |
5.49 |
160/160 |
RoCulturaBench
模型 |
平均得分 |
罗马尼亚语回答数量 |
Llama-3-8B-Instruct |
4.62 |
100/100 |
RoLlama3-8b-Instruct-2024-06-28 |
3.71 |
100/100 |
RoLlama3-8b-Instruct-2024-10-09 |
3.81 |
100/100 |
RoLlama3-8b-Instruct-DPO-2024-10-09 |
4.40 |
100/100 |
RoLlama3模型家族
模型 |
链接 |
RoLlama3-8b-Instruct-2024-06-28 |
link |
RoLlama3-8b-Instruct-2024-10-09 |
link |
RoLlama3-8b-Instruct-DPO-2024-10-09 |
link |
📄 许可证
本模型使用的许可证为cc-by-nc-4.0。
📚 引用
@misc{masala2024vorbecstiromanecsterecipetrain,
title={"Vorbe\c{s}ti Rom\^ane\c{s}te?" A Recipe to Train Powerful Romanian LLMs with English Instructions},
author={Mihai Masala and Denis C. Ilie-Ablachim and Alexandru Dima and Dragos Corlatescu and Miruna Zavelca and Ovio Olaru and Simina Terian-Dan and Andrei Terian-Dan and Marius Leordeanu and Horia Velicu and Marius Popescu and Mihai Dascalu and Traian Rebedea},
year={2024},
eprint={2406.18266},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2406.18266},
}