🚀 RakutenAI-7B
RakutenAI-7Bは、最新技術を日本語の大規模言語モデル(LLM)の世界にもたらす画期的な取り組みです。このモデルは、日本語の言語理解ベンチマークで最高のスコアを達成し、OpenCalm、Elyza、Youri、Nekomata、Swallowなどの同様のモデルと比較して、英語のテストセットでも高い性能を維持しています。
🚀 クイックスタート
RakutenAI-7Bは、Mistralのモデルアーキテクチャを活用し、Mistral-7B-v0.1の事前学習チェックポイントをベースにしています。また、Mistralの語彙を32kから48kに拡張することで、日本語に対するトークンあたりの文字率を向上させています。
技術レポートはarXivで確認できます。
インストラクションチューニングされたモデルを探している場合は、RakutenAI-7B-instructを確認してください。
チャットチューニングされたモデルを探している場合は、RakutenAI-7B-chatを確認してください。
✨ 主な機能
日本語理解能力の向上
RakutenAI-7Bは、日本語の言語理解ベンチマークで高いスコアを達成しています。
英語での高い性能
同様のモデルと比較して、英語のテストセットでも高い性能を維持しています。
語彙の拡張
Mistralの語彙を32kから48kに拡張することで、日本語に対するトークンあたりの文字率を向上させています。
📚 ドキュメント
モデル評価結果
日本語の評価結果
モデル名 |
7-Avg. excl. XLSum-ja |
平均 |
JCS |
JNLI |
MARC-ja |
JSQuAD |
Jaqket v2 |
XLSum-ja |
xWino |
MGSM |
|
|
|
正解率 |
正解率 |
正解率 |
完全一致率 |
完全一致率 |
rouge-2 |
正解率 |
正解率 |
|
|
|
3ショット |
3ショット |
3ショット |
2ショット |
1ショット |
1ショット |
0ショット |
5ショット |
rakuten-ai-7b |
69.80 |
62.83 |
84.27 |
48.69 |
96.29 |
79.09 |
80.67 |
14.08 |
77.16 |
22.40 |
nekomata-7b |
66.01 |
58.83 |
85.43 |
40.14 |
96.80 |
76.29 |
71.99 |
8.59 |
73.83 |
17.60 |
japanese-stablelm-base-gamma-7b |
64.83 |
59.12 |
80.07 |
14.71 |
92.41 |
81.38 |
85.05 |
19.16 |
82.59 |
17.60 |
youri-7b |
62.71 |
56.90 |
76.94 |
51.11 |
90.96 |
57.45 |
78.09 |
16.27 |
78.00 |
6.40 |
swallow-7b |
60.86 |
55.18 |
78.91 |
15.16 |
90.27 |
73.28 |
80.24 |
15.41 |
76.96 |
11.20 |
elyza-japanese-Llama-2-7b |
60.24 |
53.26 |
75.60 |
50.74 |
87.51 |
71.48 |
57.56 |
4.40 |
71.22 |
7.60 |
elyza-japanese-Llama-2-7b-fast |
58.31 |
51.34 |
71.49 |
45.77 |
86.61 |
70.91 |
64.18 |
2.54 |
61.63 |
7.60 |
open-calm-7b |
45.27 |
39.67 |
62.65 |
31.92 |
85.37 |
38.05 |
33.42 |
0.45 |
65.07 |
0.40 |
表1: RakutenAI-7Bの基礎モデルが、他のモデルと比較して日本語のLM-Harnessメトリクスで達成した性能。
当社のモデルは、最高の平均スコアを達成しており、次に良いモデルよりも3ポイント以上上回っています。モデルは7-Avg.でソートされています。日本語のLM-Harnessには、v0.3のプロンプトバージョンで、以下のコミットhttps://github.com/Stability-AI/lm-evaluation-harness/tree/0fa86429679f521161d5b81a94c0c385e0a0976d を使用しています。
英語の評価結果
モデル名 |
平均 |
ARC |
HellaSwag |
MMLU |
TruthfulQA |
|
|
正解率 |
正解率 |
正解率 |
正解率 |
|
|
25ショット |
10ショット |
5ショット |
6ショット |
rakuten-ai-7b |
60.50 |
60.24 |
82.20 |
61.31 |
38.25 |
japanese-stablelm-base-gamma-7b |
56.08 |
50.60 |
77.43 |
54.99 |
41.30 |
elyza-japanese-Llama-2-7b |
52.76 |
51.62 |
76.54 |
44.85 |
38.02 |
elyza-japanese-Llama-2-7b-fast |
52.07 |
51.79 |
75.46 |
44.41 |
36.63 |
nekomata-7b |
51.97 |
47.35 |
72.78 |
48.38 |
39.38 |
youri-7b |
50.60 |
49.15 |
75.02 |
42.36 |
35.89 |
swallow-7b |
49.90 |
47.35 |
72.20 |
39.36 |
40.68 |
open-calm-7b |
29.87 |
20.56 |
31.01 |
23.73 |
44.16 |
表2: RakutenAI-7Bの基礎モデルが、他のモデルと比較して英語のLM-Harnessメトリクスで達成した性能。
当社のモデルは、最高の平均スコアを達成しており、次に良いモデルよりも4ポイント以上上回っています。英語のLM-Harnessには、以下のコミットhttps://github.com/EleutherAI/lm-evaluation-harness/tree/b281b0921b636bc36ad05c0b0b0763bd6dd43463 を使用しています。
KamataらによるNejumi LLMリーダーボード Neoでの独立した評価では、llm-jp-evalとJapanese MT-benchの加重平均を使用して、2024年3月22日現在、同規模のオープンLLMの中で、RakutenAI-7Bのチャット/インストラクションバージョンがそれぞれ0.393/0.331のスコアで最高の性能を示していることが確認されています。
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "Rakuten/RakutenAI-7B"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, torch_dtype="auto", device_map="auto")
model.eval()
requests = [
"南硫黄島原生自然環境保全地域は、自然",
"The capybara is a giant cavy rodent",
]
for req in requests:
input_ids = tokenizer.encode(req, return_tensors="pt").to(device=model.device)
tokens = model.generate(
input_ids,
max_new_tokens=256,
do_sample=True,
repetition_penalty=1.1,
pad_token_id=tokenizer.eos_token_id,
)
out = tokenizer.decode(tokens[0], skip_special_tokens=True)
print("INPUT:\n" + req)
print("OUTPUT:\n" + out)
print()
print()
🔧 技術詳細
開発元
Rakuten Group, Inc.
言語
日本語、英語
ライセンス
このモデルは、Apache License, Version 2.0の下でライセンスされています。
制限事項とバイアス
RakutenAI-7Bのモデル群は、幅広いトピックについて人間に近い文章を生成することができます。しかし、他のすべてのLLMと同様に、制限があり、偏った、不正確な、または不安全な出力を生成する可能性があります。これらのモデルとやり取りする際には、注意と判断力を行使してください。
📄 ライセンス
このモデルは、Apache License, Version 2.0の下でライセンスされています。
📚 引用
RakutenAI-7Bのモデル群に関する当社の研究を引用する場合は、以下を使用してください。
@misc{rakutengroup2024rakutenai7b,
title={RakutenAI-7B: Extending Large Language Models for Japanese},
author={{Rakuten Group, Inc.} and Aaron Levine and Connie Huang and Chenguang Wang and Eduardo Batista and Ewa Szymanska and Hongyi Ding and Hou Wei Chou and Jean-François Pessiot and Johanes Effendi and Justin Chiu and Kai Torben Ohlhus and Karan Chopra and Keiji Shinzato and Koji Murakami and Lee Xiong and Lei Chen and Maki Kubota and Maksim Tkachenko and Miroku Lee and Naoki Takahashi and Prathyusha Jwalapuram and Ryutaro Tatsushima and Saurabh Jain and Sunil Kumar Yadav and Ting Cai and Wei-Te Chen and Yandi Xia and Yuki Nakayama and Yutaka Higashiyama},
year={2024},
eprint={2403.15484},
archivePrefix={arXiv},
primaryClass={cs.CL}
}