🚀 RakutenAI-7B-instruct
RakutenAI-7Bは、日本語の大規模言語モデル(LLM)の世界に最新技術をもたらす計画的な取り組みです。このモデルは、日本語理解のベンチマークで最高のスコアを達成し、OpenCalm、Elyza、Youri、Nekomata、Swallowなどの同様のモデルの中でも英語のテストセットにおいても競争力のある性能を維持しています。
🚀 クイックスタート
RakutenAI-7B-instructモデルの使用方法は以下の通りです。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "Rakuten/RakutenAI-7B-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, torch_dtype="auto", device_map="auto")
model.eval()
requests = [
"「馬が合う」はどう言う意味ですか",
"How to make an authentic Spanish Omelette?",
]
system_message = "A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. USER: {user_input} ASSISTANT:"
for req in requests:
input_req = system_message.format(user_input=req)
input_ids = tokenizer.encode(input_req, return_tensors="pt").to(device=model.device)
tokens = model.generate(
input_ids,
max_new_tokens=1024,
do_sample=True,
pad_token_id=tokenizer.eos_token_id,
)
out = tokenizer.decode(tokens[0][len(input_ids[0]):], skip_special_tokens=True)
print("USER:\n" + req)
print("ASSISTANT:\n" + out)
print()
print()
✨ 主な機能
- RakutenAI-7Bは、日本語理解のベンチマークで最高のスコアを達成し、英語のテストセットでも競争力のある性能を維持しています。
- Mistralモデルアーキテクチャを活用し、Mistral-7B-v0.1の事前学習チェックポイントをベースにしています。
- Mistralの語彙を32kから48kに拡張し、日本語の文字あたりのトークン率を向上させています。
📚 ドキュメント
モデル評価結果
日本語のLM-Harnessメトリクス
モデル名 |
7-Avg. excl. XLSum-ja |
平均 |
JCS |
JNLI |
MARC-ja |
JSQuAD |
Jaqket v2 |
XLSum-ja |
xWino |
MGSM |
|
|
|
精度 |
精度 |
精度 |
正確一致率 |
正確一致率 |
rouge-2 |
精度 |
精度 |
|
|
|
3ショット |
3ショット |
3ショット |
2ショット |
1ショット |
1ショット |
0ショット |
5ショット |
rakuten-ai-7b-instruct |
77.32 |
68.74 |
93.03 |
90.39 |
96.00 |
80.44 |
81.79 |
8.67 |
75.18 |
24.40 |
youri-7b-instruction |
73.35 |
66.84 |
86.06 |
70.13 |
97.03 |
82.53 |
79.47 |
21.29 |
79.04 |
19.20 |
japanese-stablelm-instruct-gamma-7b |
65.46 |
59.98 |
83.82 |
16.97 |
95.68 |
76.20 |
81.87 |
21.58 |
82.06 |
21.60 |
swallow-7b-instruct |
64.29 |
58.25 |
83.38 |
26.50 |
94.46 |
75.62 |
81.01 |
16.01 |
76.23 |
12.80 |
elyza-japanese-Llama-2-7b-instruct |
60.04 |
53.19 |
65.15 |
57.44 |
91.51 |
67.29 |
58.51 |
5.20 |
70.80 |
9.60 |
elyza-japanese-Llama-2-7b-fast-instruct |
57.22 |
50.48 |
70.69 |
36.48 |
92.75 |
68.87 |
62.29 |
3.36 |
59.44 |
10.00 |
nekomata-7b-instruction |
49.04 |
44.14 |
85.08 |
42.48 |
96.99 |
8.51 |
10.91 |
9.81 |
76.12 |
23.20 |
このモデルは最高の平均スコアを達成し、次に良いモデルよりも3点以上上回っています。モデルは7-Avg.でソートされています。日本語のLM-Harnessには、以下のコミットhttps://github.com/Stability-AI/lm-evaluation-harness/tree/0fa86429679f521161d5b81a94c0c385e0a0976dをv0.3のプロンプトバージョンで使用しています。
英語のLM-Harnessメトリクス
モデル名 |
平均 |
ARC |
HellaSwag |
MMLU |
TruthfulQA |
|
|
精度 |
精度 |
精度 |
精度 |
|
|
25ショット |
10ショット |
5ショット |
6ショット |
rakuten-ai-7b-instruct |
61.32 |
58.62 |
82.70 |
60.32 |
43.63 |
japanese-stablelm-instruct-gamma-7b |
55.91 |
50.43 |
77.10 |
54.61 |
41.50 |
elyza-japanese-Llama-2-7b-fast-instruct |
54.21 |
53.58 |
77.69 |
46.91 |
38.67 |
elyza-japanese-Llama-2-7b-instruct |
54.07 |
52.05 |
78.33 |
47.09 |
38.83 |
nekomata-7b-instruction |
52.84 |
50.34 |
73.67 |
48.53 |
38.81 |
youri-7b-instruction |
52.11 |
48.98 |
75.66 |
45.41 |
38.38 |
swallow-7b-instruct |
50.32 |
47.61 |
72.27 |
40.77 |
40.62 |
このモデルは最高の平均スコアを達成し、次に良いモデルよりも5点以上上回っています。英語のLM-Harnessには、以下のコミットhttps://github.com/EleutherAI/lm-evaluation-harness/tree/b281b0921b636bc36ad05c0b0b0763bd6dd43463を使用しています。
また、Kamataらによる独立した評価(Nejumi LLMリーダーボード Neo)では、llm-jp-evalとJapanese MT-benchの加重平均を用いて、2024年3月22日現在、同サイズのオープンLLMの中でRakutenAI-7Bのチャット/命令調整バージョンがそれぞれ0.393/0.331のスコアで最高の性能を示していることが確認されています。
モデル詳細
制限事項とバイアス
RakutenAI-7Bモデル群は、幅広いトピックについて人間に似た文章を生成することができます。しかし、すべてのLLMと同様に、制限があり、バイアスがある、不正確な、または不安全な出力を生成する可能性があります。使用する際には、注意と判断を行使してください。
📄 ライセンス
このモデルはApache License, Version 2.0の下でライセンスされています。
引用
RakutenAI-7Bモデル群に関する我々の研究を引用する場合は、以下を使用してください。
@misc{rakutengroup2024rakutenai7b,
title={RakutenAI-7B: Extending Large Language Models for Japanese},
author={{Rakuten Group, Inc.} and Aaron Levine and Connie Huang and Chenguang Wang and Eduardo Batista and Ewa Szymanska and Hongyi Ding and Hou Wei Chou and Jean-François Pessiot and Johanes Effendi and Justin Chiu and Kai Torben Ohlhus and Karan Chopra and Keiji Shinzato and Koji Murakami and Lee Xiong and Lei Chen and Maki Kubota and Maksim Tkachenko and Miroku Lee and Naoki Takahashi and Prathyusha Jwalapuram and Ryutaro Tatsushima and Saurabh Jain and Sunil Kumar Yadav and Ting Cai and Wei-Te Chen and Yandi Xia and Yuki Nakayama and Yutaka Higashiyama},
year={2024},
eprint={2403.15484},
archivePrefix={arXiv},
primaryClass={cs.CL}
}