模型概述
模型特點
模型能力
使用案例
🚀 RakutenAI-7B
RakutenAI-7B 是一項系統性的創新成果,它將最新技術引入日語大語言模型領域。該模型在日語理解基準測試中取得了優異成績,並且在英語測試集上,與 OpenCalm、Elyza、Youri、Nekomata 和 Swallow 等同類模型相比,也展現出了極具競爭力的性能。
🚀 快速開始
你可以按照下面的代碼示例來使用 RakutenAI-7B 模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "Rakuten/RakutenAI-7B"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, torch_dtype="auto", device_map="auto")
model.eval()
requests = [
"南硫黃島原生自然環境保全地域は、自然",
"The capybara is a giant cavy rodent",
]
for req in requests:
input_ids = tokenizer.encode(req, return_tensors="pt").to(device=model.device)
tokens = model.generate(
input_ids,
max_new_tokens=256,
do_sample=True,
repetition_penalty=1.1,
pad_token_id=tokenizer.eos_token_id,
)
out = tokenizer.decode(tokens[0], skip_special_tokens=True)
print("INPUT:\n" + req)
print("OUTPUT:\n" + out)
print()
print()
✨ 主要特性
- 先進架構:RakutenAI-7B 採用了 Mistral 模型架構,並基於 Mistral-7B-v0.1 預訓練檢查點,成功實現了預訓練模型權重的適配。
- 詞彙擴展:將 Mistral 的詞彙量從 32k 擴展到 48k,為日語提供了更好的字符 - 標記率。
- 多語言支持:支持日語和英語兩種語言。
- 卓越性能:在多個基準測試中表現出色,在日語和英語測試集上均取得了較高的平均分數。
📚 詳細文檔
模型評估結果
日語評估指標
模型名稱 | 7 - 平均(不包括 XLSum - ja) | 平均 | JCS | JNLI | MARC - ja | JSQuAD | Jaqket v2 | XLSum - ja | xWino | MGSM |
---|---|---|---|---|---|---|---|---|---|---|
準確率 | 準確率 | 準確率 | 精確匹配率 | 精確匹配率 | rouge - 2 | 準確率 | 準確率 | |||
3 - 樣本 | 3 - 樣本 | 3 - 樣本 | 2 - 樣本 | 1 - 樣本 | 1 - 樣本 | 0 - 樣本 | 5 - 樣本 | |||
rakuten - ai - 7b | 69.80 | 62.83 | 84.27 | 48.69 | 96.29 | 79.09 | 80.67 | 14.08 | 77.16 | 22.40 |
nekomata - 7b | 66.01 | 58.83 | 85.43 | 40.14 | 96.80 | 76.29 | 71.99 | 8.59 | 73.83 | 17.60 |
japanese - stablelm - base - gamma - 7b | 64.83 | 59.12 | 80.07 | 14.71 | 92.41 | 81.38 | 85.05 | 19.16 | 82.59 | 17.60 |
youri - 7b | 62.71 | 56.90 | 76.94 | 51.11 | 90.96 | 57.45 | 78.09 | 16.27 | 78.00 | 6.40 |
swallow - 7b | 60.86 | 55.18 | 78.91 | 15.16 | 90.27 | 73.28 | 80.24 | 15.41 | 76.96 | 11.20 |
elyza - japanese - Llama - 2 - 7b | 60.24 | 53.26 | 75.60 | 50.74 | 87.51 | 71.48 | 57.56 | 4.40 | 71.22 | 7.60 |
elyza - japanese - Llama - 2 - 7b - fast | 58.31 | 51.34 | 71.49 | 45.77 | 86.61 | 70.91 | 64.18 | 2.54 | 61.63 | 7.60 |
open - calm - 7b | 45.27 | 39.67 | 62.65 | 31.92 | 85.37 | 38.05 | 33.42 | 0.45 | 65.07 | 0.40 |
我們的模型取得了最高的平均分數,比次優模型高出 3 分以上。模型按照 7 - 平均進行排序。我們使用以下提交 https://github.com/Stability - AI/lm - evaluation - harness/tree/0fa86429679f521161d5b81a94c0c385e0a0976d 進行日語 LM - Harness 測試,提示版本為 v0.3。
英語評估指標
模型名稱 | 平均 | ARC | HellaSwag | MMLU | TruthfulQA |
---|---|---|---|---|---|
準確率 | 準確率 | 準確率 | 準確率 | ||
25 - 樣本 | 10 - 樣本 | 5 - 樣本 | 6 - 樣本 | ||
rakuten - ai - 7b | 60.50 | 60.24 | 82.20 | 61.31 | 38.25 |
japanese - stablelm - base - gamma - 7b | 56.08 | 50.60 | 77.43 | 54.99 | 41.30 |
elyza - japanese - Llama - 2 - 7b | 52.76 | 51.62 | 76.54 | 44.85 | 38.02 |
elyza - japanese - Llama - 2 - 7b - fast | 52.07 | 51.79 | 75.46 | 44.41 | 36.63 |
nekomata - 7b | 51.97 | 47.35 | 72.78 | 48.38 | 39.38 |
youri - 7b | 50.60 | 49.15 | 75.02 | 42.36 | 35.89 |
swallow - 7b | 49.90 | 47.35 | 72.20 | 39.36 | 40.68 |
open - calm - 7b | 29.87 | 20.56 | 31.01 | 23.73 | 44.16 |
我們的模型取得了最高的平均分數,比次優模型高出 4 分以上。我們使用以下提交進行英語 LM - Harness 測試 https://github.com/EleutherAI/lm - evaluation - harness/tree/b281b0921b636bc36ad05c0b0b0763bd6dd43463。
截至 2024 年 3 月 22 日,Kamata 等人使用 [llm - jp - eval](https://github.com/llm - jp/llm - jp - eval) 和 [Japanese MT - bench](https://github.com/Stability - AI/FastChat/tree/jp - stable/fastchat/llm_judge) 的加權平均值,對 [Nejumi LLM 排行榜 Neo](https://wandb.ai/wandb - japan/llm - leaderboard/reports/Nejumi - LLM - Neo--Vmlldzo2MTkyMTU0#総合評価) 進行的獨立評估也證實,RakutenAI - 7B 的聊天/指令版本在同類大小的開源大語言模型中表現最佳,得分分別為 0.393/0.331。
模型詳情
屬性 | 詳情 |
---|---|
開發方 | 樂天集團(Rakuten Group, Inc.) |
支持語言 | 日語、英語 |
許可證 | 本模型採用 [Apache 許可證 2.0 版](https://www.apache.org/licenses/LICENSE - 2.0) 授權。 |
侷限性和偏差
RakutenAI - 7B 系列模型能夠在廣泛的主題上生成類似人類的文本。然而,與所有大語言模型一樣,它們也有侷限性,可能會產生有偏見、不準確或不安全的輸出。在與它們交互時,請謹慎並做出判斷。
引用方式
如需引用我們關於 RakutenAI - 7B 系列模型的工作,請使用以下 BibTeX 格式:
@misc{rakutengroup2024rakutenai7b,
title={RakutenAI-7B: Extending Large Language Models for Japanese},
author={{Rakuten Group, Inc.} and Aaron Levine and Connie Huang and Chenguang Wang and Eduardo Batista and Ewa Szymanska and Hongyi Ding and Hou Wei Chou and Jean-François Pessiot and Johanes Effendi and Justin Chiu and Kai Torben Ohlhus and Karan Chopra and Keiji Shinzato and Koji Murakami and Lee Xiong and Lei Chen and Maki Kubota and Maksim Tkachenko and Miroku Lee and Naoki Takahashi and Prathyusha Jwalapuram and Ryutaro Tatsushima and Saurabh Jain and Sunil Kumar Yadav and Ting Cai and Wei-Te Chen and Yandi Xia and Yuki Nakayama and Yutaka Higashiyama},
year={2024},
eprint={2403.15484},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
技術報告
技術報告可在 arXiv 上獲取。
其他版本
- 如果你正在尋找經過指令微調的模型,請查看 [RakutenAI - 7B - instruct](https://huggingface.co/Rakuten/RakutenAI - 7B - instruct)。
- 如果你正在尋找經過聊天微調的模型,請查看 [RakutenAI - 7B - chat](https://huggingface.co/Rakuten/RakutenAI - 7B - chat)。



