模型简介
模型特点
模型能力
使用案例
🚀 RakutenAI-7B-instruct
RakutenAI-7B-instruct是一个系统性的项目,它将最新技术引入了日语大语言模型领域。该模型在日语理解基准测试中取得了最佳成绩,同时在英语测试集上,与OpenCalm、Elyza、Youri、Nekomata和Swallow等类似模型相比,也保持着有竞争力的表现。
🚀 快速开始
你可以使用以下Python代码来调用RakutenAI-7B-instruct模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "Rakuten/RakutenAI-7B-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, torch_dtype="auto", device_map="auto")
model.eval()
requests = [
"「馬が合う」はどう言う意味ですか",
"How to make an authentic Spanish Omelette?",
]
system_message = "A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. USER: {user_input} ASSISTANT:"
for req in requests:
input_req = system_message.format(user_input=req)
input_ids = tokenizer.encode(input_req, return_tensors="pt").to(device=model.device)
tokens = model.generate(
input_ids,
max_new_tokens=1024,
do_sample=True,
pad_token_id=tokenizer.eos_token_id,
)
out = tokenizer.decode(tokens[0][len(input_ids[0]):], skip_special_tokens=True)
print("USER:\n" + req)
print("ASSISTANT:\n" + out)
print()
print()
✨ 主要特性
- 卓越性能:RakutenAI-7B在日语语言理解基准测试中取得了最佳成绩,在英语测试集上也有竞争力。
- 架构优势:利用Mistral模型架构,基于Mistral-7B-v0.1预训练检查点,成功改造了预训练模型权重。
- 词汇扩展:将Mistral的词汇量从32k扩展到48k,为日语提供了更好的字符/标记率。
📚 详细文档
模型描述
RakutenAI-7B是一个系统性的项目,它将最新技术引入了日语大语言模型领域。RakutenAI-7B在日语语言理解基准测试中取得了最佳成绩,同时在英语测试集上,与OpenCalm、Elyza、Youri、Nekomata和Swallow等类似模型相比,也保持着有竞争力的表现。RakutenAI-7B利用Mistral模型架构,基于Mistral-7B-v0.1预训练检查点,成功改造了预训练模型权重。此外,我们将Mistral的词汇量从32k扩展到48k,为日语提供了更好的字符/标记率。
技术报告可在arXiv上获取。
如果你正在寻找基础模型,请查看RakutenAI-7B。
如果你正在寻找聊天调优模型,请查看RakutenAI-7B-chat。
模型评估结果
日语评估结果
模型名称 | 7-Avg. excl. XLSum-ja | Avg. | JCS | JNLI | MARC-ja | JSQuAD | Jaqket v2 | XLSum-ja | xWino | MGSM |
---|---|---|---|---|---|---|---|---|---|---|
准确率 | 准确率 | 准确率 | 精确匹配率 | 精确匹配率 | rouge-2 | 准确率 | 准确率 | |||
3次样本 | 3次样本 | 3次样本 | 2次样本 | 1次样本 | 1次样本 | 0次样本 | 5次样本 | |||
rakuten-ai-7b-instruct | 77.32 | 68.74 | 93.03 | 90.39 | 96.00 | 80.44 | 81.79 | 8.67 | 75.18 | 24.40 |
youri-7b-instruction | 73.35 | 66.84 | 86.06 | 70.13 | 97.03 | 82.53 | 79.47 | 21.29 | 79.04 | 19.20 |
japanese-stablelm-instruct-gamma-7b | 65.46 | 59.98 | 83.82 | 16.97 | 95.68 | 76.20 | 81.87 | 21.58 | 82.06 | 21.60 |
swallow-7b-instruct | 64.29 | 58.25 | 83.38 | 26.50 | 94.46 | 75.62 | 81.01 | 16.01 | 76.23 | 12.80 |
elyza-japanese-Llama-2-7b-instruct | 60.04 | 53.19 | 65.15 | 57.44 | 91.51 | 67.29 | 58.51 | 5.20 | 70.80 | 9.60 |
elyza-japanese-Llama-2-7b-fast-instruct | 57.22 | 50.48 | 70.69 | 36.48 | 92.75 | 68.87 | 62.29 | 3.36 | 59.44 | 10.00 |
nekomata-7b-instruction | 49.04 | 44.14 | 85.08 | 42.48 | 96.99 | 8.51 | 10.91 | 9.81 | 76.12 | 23.20 |
我们的模型取得了最高的平均分数,比次佳模型高出3分以上。模型按7-Avg.排序。我们使用以下提交的代码进行日语LM-Harness测试:https://github.com/Stability-AI/lm-evaluation-harness/tree/0fa86429679f521161d5b81a94c0c385e0a0976d ,提示版本为v0.3。
英语评估结果
模型名称 | Avg. | ARC | HellaSwag | MMLU | TruthfulQA |
---|---|---|---|---|---|
准确率 | 准确率 | 准确率 | 准确率 | ||
25次样本 | 10次样本 | 5次样本 | 6次样本 | ||
rakuten-ai-7b-instruct | 61.32 | 58.62 | 82.70 | 60.32 | 43.63 |
japanese-stablelm-instruct-gamma-7b | 55.91 | 50.43 | 77.10 | 54.61 | 41.50 |
elyza-japanese-Llama-2-7b-fast-instruct | 54.21 | 53.58 | 77.69 | 46.91 | 38.67 |
elyza-japanese-Llama-2-7b-instruct | 54.07 | 52.05 | 78.33 | 47.09 | 38.83 |
nekomata-7b-instruction | 52.84 | 50.34 | 73.67 | 48.53 | 38.81 |
youri-7b-instruction | 52.11 | 48.98 | 75.66 | 45.41 | 38.38 |
swallow-7b-instruct | 50.32 | 47.61 | 72.27 | 40.77 | 40.62 |
我们的模型取得了最高的平均分数,比次佳模型高出5分以上。我们使用以下提交的代码进行英语LM-Harness测试:https://github.com/EleutherAI/lm-evaluation-harness/tree/b281b0921b636bc36ad05c0b0b0763bd6dd43463。
Kamata等人对Nejumi LLMリーダーボード Neo进行的独立评估,使用了llm-jp-eval和Japanese MT-bench的加权平均值,也证实了截至2024年3月22日,RakutenAI-7B的聊天/指令版本在类似规模的开源大语言模型中表现最佳,分数分别为0.393/0.331。
模型详情
属性 | 详情 |
---|---|
开发者 | 乐天集团(Rakuten Group, Inc.) |
支持语言 | 日语、英语 |
许可证 | 本模型遵循Apache许可证2.0版。 |
指令调优数据集 | 我们使用开源数据集和内部手工制作的数据集对基础模型进行微调,以创建RakutenAI-7B-instruct和RakutenAI-7B-chat。我们使用以下数据集的train 部分(CC by-SA许可证)进行指令调优和聊天调优模型:- JSNLI - RTE - KUCI - BELEBELE - JCS - JNLI - Dolly-15K - OpenAssistant1 |
局限性和偏差
RakutenAI-7B系列模型能够在广泛的主题上生成类似人类的文本。然而,像所有大语言模型一样,它们也有局限性,可能会产生有偏差、不准确或不安全的输出。在与它们交互时,请谨慎并运用判断力。
🔧 技术细节
RakutenAI-7B利用Mistral模型架构,基于Mistral-7B-v0.1预训练检查点,成功改造了预训练模型权重。此外,我们将Mistral的词汇量从32k扩展到48k,为日语提供了更好的字符/标记率。
📄 许可证
本模型遵循Apache许可证2.0版。
📚 引用
如需引用我们在RakutenAI-7B系列模型上的工作,请使用以下格式:
@misc{rakutengroup2024rakutenai7b,
title={RakutenAI-7B: Extending Large Language Models for Japanese},
author={{Rakuten Group, Inc.} and Aaron Levine and Connie Huang and Chenguang Wang and Eduardo Batista and Ewa Szymanska and Hongyi Ding and Hou Wei Chou and Jean-François Pessiot and Johanes Effendi and Justin Chiu and Kai Torben Ohlhus and Karan Chopra and Keiji Shinzato and Koji Murakami and Lee Xiong and Lei Chen and Maki Kubota and Maksim Tkachenko and Miroku Lee and Naoki Takahashi and Prathyusha Jwalapuram and Ryutaro Tatsushima and Saurabh Jain and Sunil Kumar Yadav and Ting Cai and Wei-Te Chen and Yandi Xia and Yuki Nakayama and Yutaka Higashiyama},
year={2024},
eprint={2403.15484},
archivePrefix={arXiv},
primaryClass={cs.CL}
}



