Swallow MS 7b Instruct V0.1
基於Mistral-7B-v0.1進行持續預訓練的日語增強大語言模型
下載量 48
發布時間 : 3/29/2024
模型概述
Swallow-MS-7b-v0.1是基於Mistral-7B-v0.1架構的日語增強大語言模型,通過增加日語數據訓練,優化了日語文本處理能力。
模型特點
日語優化分詞器
擴展了日語詞彙的分詞器,能更高效地用更少token表示文本,顯著加快推理速度
雙語支持
同時支持日語和英語處理,特別優化了日語能力
指令跟隨能力
通過指令調優版本(Swallow-MS-7b-instruct-v0.1)提供良好的指令遵循表現
模型能力
日語文本生成
英語文本生成
指令理解與執行
多輪對話
使用案例
智能助手
日語問答系統
用於構建日語智能問答助手
在MT-Bench JA基準測試中表現優於多個日語模型
內容生成
日語內容創作
生成日語文章、報告等文本內容
🚀 Swallow-MS-7b-v0.1
我們的 Swallow-MS-7b-v0.1 模型基於 Mistral-7B-v0.1 進行持續預訓練,主要增加了日語語言數據。該模型能更好地處理日語相關任務,為日語自然語言處理提供更強大的支持。
🚀 快速開始
本倉庫提供由 TokyoTech-LLM 開發的大語言模型。首先,你需要安裝 requirements.txt 中的額外依賴項:
pip install -r requirements.txt
✨ 主要特性
- 多語言支持:支持日語和英語兩種語言。
- 高效推理:採用基於日語數據擴展詞彙表的分詞器,能以更少的標記更高效地表示文本,推理速度顯著加快。
📦 安裝指南
安裝額外依賴項:
pip install -r requirements.txt
💻 使用示例
基礎用法
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "tokyotech-llm/Swallow-MS-7b-instruct-v0.1"
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(model_name)
device = "cuda"
messages = [
{"role": "system", "content": "あなたは誠実で優秀な日本人のアシスタントです。"},
{"role": "user", "content": "東京工業大學の主なキャンパスについて教えてください"}
]
encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=128, do_sample=True)
decoded = tokenizer.batch_decode(generated_ids)
print(decoded[0])
指令格式 Ver0.1
此格式必須嚴格遵守,因為偏差可能導致模型輸出效果不佳。用於構建指令模型提示的模板如下:
<s>[INST] <<SYS>>\n{SYSTEM_PROMPT}\n<</SYS>>\n\n{USER_MESSAGE_1} [/INST] {BOT_MESSAGE_1}</s>[INST] {USER_MESSAGE_2} [/INST]
請注意,<s>
和 </s>
分別是用於字符串開頭(BOS)和結尾(EOS)的特殊標記,而 [INST] 和 [/INST] 被視為常規字符串。
對於 "{SYSTEM_PROMPT}" 部分,建議使用 "あなたは誠実で優秀な日本人のアシスタントです。"
對於 "{USER_MESSAGE_1}" 部分,建議使用 {instruction}\n{input}
換句話說,建議使用以下格式:
<s>[INST] <<SYS>>\nあなたは誠実で優秀な日本人のアシスタントです。\n<</SYS>>\n\n{instruction1}\n{input1} [/INST] {BOT_MESSAGE_1}</s>[INST] {instruction2}\n{input2} [/INST]
📚 詳細文檔
模型發佈更新
我們很高興分享最新模型的發佈計劃:
- 2024 年 4 月 26 日:發佈 Swallow-MS-7b-instruct-v0.1
- 2024 年 3 月 11 日:發佈 Swallow-MS-7b-v0.1
模型詳情
屬性 | 詳情 |
---|---|
模型類型 | 請參考 Mistral 技術報告瞭解模型架構詳情。 |
語言 | 日語、英語 |
分詞器 | 該模型採用基於日語數據擴展詞彙表的分詞器,能以更少的標記更高效地表示文本,推理速度顯著加快。 |
聯繫方式 | swallow[at]nlp.c.titech.ac.jp |
指令模型性能
MT-Bench JA
逐輪性能
我們報告了總體(即第一輪和第二輪得分的平均值)、第一輪和第二輪得分。
總體
模型 | 平均分 | 寫作 | 角色扮演 | 推理 | 數學 | 編碼 | 提取 | 科學技術 | 人文 |
---|---|---|---|---|---|---|---|---|---|
Swallow-MS-7b-instruct-v0.1 | 0.3411 | 0.3770 | 0.4290 | 0.3454 | 0.1040 | 0.2400 | 0.3677 | 0.3907 | 0.4750 |
第一輪
模型 | 平均分 | 寫作 | 角色扮演 | 推理 | 數學 | 編碼 | 提取 | 科學技術 | 人文 |
---|---|---|---|---|---|---|---|---|---|
Swallow-MS-7b-instruct-v0.1 | 0.3699 | 0.4880 | 0.4260 | 0.3900 | 0.1080 | 0.2364 | 0.3780 | 0.4500 | 0.4800 |
第二輪
模型 | 平均分 | 寫作 | 角色扮演 | 推理 | 數學 | 編碼 | 提取 | 科學技術 | 人文 |
---|---|---|---|---|---|---|---|---|---|
Swallow-MS-7b-instruct-v0.1 | 0.3130 | 0.2624 | 0.4320 | 0.2996 | 0.1000 | 0.2430 | 0.3564 | 0.3291 | 0.4700 |
與過往模型的比較
本部分僅提供總體得分。
模型 | 平均分 | 寫作 | 角色扮演 | 推理 | 數學 | 編碼 | 提取 | 科學技術 | 人文 |
---|---|---|---|---|---|---|---|---|---|
Swallow-MS-7b-instruct-v0.1 | 0.3411 | 0.3770 | 0.4290 | 0.3454 | 0.1040 | 0.2400 | 0.3677 | 0.3907 | 0.4750 |
ELYZA-japanese-Llama-2-7b-fast-instruct | 0.2827 | 0.3289 | 0.3907 | 0.2424 | 0.1480 | 0.1584 | 0.3511 | 0.3053 | 0.3365 |
calm2-7b-chat | 0.3204 | 0.4657 | 0.4898 | 0.1837 | 0.1005 | 0.1414 | 0.3927 | 0.3601 | 0.4293 |
calm2-7b-chat-dpo-experimental | 0.3493 | 0.5312 | 0.5237 | 0.1857 | 0.1000 | 0.1813 | 0.3355 | 0.4320 | 0.5051 |
RakutenAI-7B-instruct | 0.2994 | 0.3623 | 0.3711 | 0.3333 | 0.1763 | 0.1581 | 0.4215 | 0.2824 | 0.2901 |
RakutenAI-7B-chat | 0.3667 | 0.4229 | 0.4644 | 0.3990 | 0.2161 | 0.2390 | 0.3416 | 0.3904 | 0.4601 |
評估基準
MT-Bench JA
我們使用 Japanese MT-Bench 評估模型的指令遵循能力。我們採用以下設置:
- 實現方式:FastChat [Zheng+, 2023](提交編號 #e86e70d0)
- 問題:Nejumi LLM-Leaderboard NEO, mtbench_ja_question_v3
- 參考答案:Nejumi LLM-Leaderboard NEO, mtbench_ja_referenceanswer_v1
- 評判提示:Nejumi LLM-Lederboard NEO, mtbench_ja_prompt_v1
- 評判模型:
gpt-4-1106-preview
- 評分:絕對尺度歸一化到 0 - 1 範圍,五次運行取平均值。
訓練數據集
指令微調 Ver0.1
以下數據集用於指令微調:
- OpenAssistant Conversations Dataset,其中包含人類話語,但不使用回覆。相反,回覆使用 Mixtral-8x7B-Instruct-v0.1 模型生成。
- OpenAssistant Conversations Dataset 21k Ja
- OpenAssistant Conversations Dataset 21k En
- Databricks Dolly 15k Ja
- Databricks Dolly 15k En
請注意,部分數據存在質量或格式問題,因此並非所有數據都被使用。
風險與侷限性
此處發佈的模型仍處於我們研發的早期階段,尚未進行調整以確保輸出符合人類意圖和安全考慮。
致謝
我們感謝 Mistral AI 在開放許可證下發布 Mistral 7B v0.1,以便他人在此基礎上進行開發。
我們的項目得到了國立先進工業科學技術研究所 ABCI 大規模語言模型構建支持計劃 的支持。
📄 許可證
apache-2.0
👥 作者
以下是團隊成員:
📝 引用方式
如果您認為我們的工作有幫助,請隨時引用我們:
@inproceedings{Fujii:COLM2024,
title={Continual Pre-Training for Cross-Lingual LLM Adaptation:
Enhancing Japanese Language Capabilities},
author={Kazuki Fujii and Taishi Nakamura and Mengsay Loem and Hiroki
Iida and Masanari Ohi and Kakeru Hattori and Hirai Shota and Sakae
Mizuki and Rio Yokota and Naoaki Okazaki},
booktitle="Proceedings of the First Conference on Language Modeling",
series={COLM},
pages="(to appear)",
year="2024",
month=oct,
address={University of Pennsylvania, USA},
}
@inproceedings{Okazaki:COLM2024,
title={Building a Large Japanese Web Corpus for Large Language Models},
author={Naoaki Okazaki and Kakeru Hattori and Hirai Shota and Hiroki
Iida and Masanari Ohi and Kazuki Fujii and Taishi Nakamura and Mengsay
Loem and Rio Yokota and Sakae Mizuki},
booktitle="Proceedings of the First Conference on Language Modeling",
series={COLM},
pages="(to appear)",
year="2024",
month=oct,
address={University of Pennsylvania, USA},
}
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98