Swallow MX 8x7b NVE V0.1
S
Swallow MX 8x7b NVE V0.1
由tokyotech-llm開發
Swallow-MX-8x7b-NVE-v0.1是基於Mixtral-8x7B-Instruct-v0.1進行持續預訓練的混合專家模型,主要增強了日語能力。
下載量 1,293
發布時間 : 2/22/2024
模型概述
該模型在Mixtral-8x7B-Instruct-v0.1基礎上通過增加日語數據進行了持續預訓練,支持日語和英語,適用於多種文本生成任務。
模型特點
增強的日語能力
通過持續預訓練增加了日語數據,顯著提升了日語文本生成能力。
混合專家架構
採用8x7B的混合專家模型架構,能夠高效處理複雜任務。
多語言支持
同時支持日語和英語,適用於跨語言應用場景。
模型能力
日語文本生成
英語文本生成
問答系統
文本摘要
使用案例
教育
日語學習輔助
幫助學生生成日語學習材料和練習題。
提升日語學習效率
內容創作
多語言內容生成
為網站或應用生成日語和英語內容。
節省內容創作時間
🚀 Swallow-MX-8x7b-NVE-v0.1
Swallow-MX-8x7b-NVE-v0.1模型是在Mixtral-8x7B-Instruct-v0.1的基礎上進行持續預訓練得到的,主要增加了日語數據,提升了模型在日語和英語上的性能。
🚀 快速開始
首先,安裝requirements.txt中的額外依賴:
pip install -r requirements.txt
使用基礎模型
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "tokyotech-llm/Swallow-MX-8x7b-NVE-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16, device_map="auto")
prompt = "東京工業大學の主なキャンパスは、"
input_ids = tokenizer.encode(
prompt,
add_special_tokens=False,
return_tensors="pt"
)
tokens = model.generate(
input_ids.to(device=model.device),
max_new_tokens=128,
temperature=0.99,
top_p=0.95,
do_sample=True,
)
out = tokenizer.decode(tokens[0], skip_special_tokens=True)
print(out)
✨ 主要特性
- 基於Mixtral-8x7B-Instruct-v0.1持續預訓練,增強了日語語言能力。
- 支持日語和英語兩種語言。
- 在多個基準測試中表現出色。
📚 詳細文檔
模型詳情
屬性 | 詳情 |
---|---|
模型類型 | 具體模型架構詳情請參考Mixtral技術報告。 |
語言 | 日語、英語 |
分詞器 | 該模型使用與Mixtral-8x7B-Instruct-v0.1相同的分詞器。 |
聯繫方式 | swallow[at]nlp.c.titech.ac.jp |
基礎模型性能
日語版本
模型 | 規模 | JCommonsenseQA(4-shot) | JEMHopQA(4-shot) | NIILC(4-shot) | JSQuAD(4-shot) | XL-Sum(1-shot) | MGSM(4-shot) | WMT20-en-ja(4-shot) | WMT20-ja-en(4-shot) |
---|---|---|---|---|---|---|---|---|---|
Llama 2 | 7B | 0.3852 | 0.4240 | 0.3410 | 0.7917 | 0.1905 | 0.0760 | 0.1783 | 0.1738 |
Swallow | 7B | 0.4808 | 0.5078 | 0.5968 | 0.8573 | 0.1830 | 0.1240 | 0.2510 | 0.1511 |
Swallow-Plus | 7B | 0.5478 | 0.5493 | 0.6030 | 0.8544 | 0.1806 | 0.1360 | 0.2568 | 0.1441 |
Swallow-NVE | 7B | 0.5433 | 0.5425 | 0.5729 | 0.8684 | 0.2117 | 0.1200 | 0.2405 | 0.1512 |
Mistral-7B-v0.1 | 7B | 0.7301 | 0.4245 | 0.2722 | 0.8563 | 0.2006 | 0.1760 | 0.1405 | 0.1733 |
Swallow-MS-7b-v0.1 | 7B | 0.8570 | 0.4915 | 0.5519 | 0.8802 | 0.1988 | 0.2240 | 0.2494 | 0.1667 |
Llama 2 | 13B | 0.6997 | 0.4415 | 0.4170 | 0.8533 | 0.2139 | 0.1320 | 0.2146 | 0.1982 |
Swallow | 13B | 0.7837 | 0.5063 | 0.6398 | 0.9005 | 0.2168 | 0.2040 | 0.2720 | 0.1771 |
Swallow-NVE | 13B | 0.7712 | 0.5438 | 0.6351 | 0.9030 | 0.2294 | 0.2120 | 0.2735 | 0.1817 |
Llama 2 | 70B | 0.8686 | 0.4656 | 0.5256 | 0.9080 | 0.2361 | 0.3560 | 0.2643 | 0.2398 |
Swallow | 70B | 0.9348 | 0.6290 | 0.6960 | 0.9176 | 0.2266 | 0.4840 | 0.3043 | 0.2298 |
Swallow-NVE | 70B | 0.9410 | 0.5759 | 0.7024 | 0.9254 | 0.2758 | 0.4720 | 0.3042 | 0.2322 |
Mixtral-8x7B-v0.1 | 8x7B | 0.8347 | 0.5335 | 0.3549 | 0.8847 | 0.2192 | 0.3120 | 0.1970 | 0.1987 |
Swallow-MX-8x7b-NVE-v0.1 | 8x7B | 0.9258 | 0.5843 | 0.5687 | 0.9148 | 0.2589 | 0.4360 | 0.2705 | 0.2074 |
英語版本
模型 | 規模 | OpenBookQA(8-shot) | TriviaQA(8-shot) | HellaSwag(8-shot) | SQuAD2.0(8-shot) | XWINO(8-shot) | GSM8K(8-shot) |
---|---|---|---|---|---|---|---|
Llama 2 | 7B | 0.3580 | 0.6265 | 0.5860 | 0.3207 | 0.9049 | 0.1410 |
Swallow | 7B | 0.3180 | 0.4836 | 0.5308 | 0.3125 | 0.8817 | 0.1130 |
Swallow-Plus | 7B | 0.3280 | 0.4558 | 0.5259 | 0.3134 | 0.8929 | 0.1061 |
Swallow-NVE | 7B | 0.3180 | 0.5079 | 0.5329 | 0.2919 | 0.8817 | 0.0986 |
Mistral-7B-v0.1 | 7B | 0.3660 | 0.7050 | 0.6264 | 0.3799 | 0.9157 | 0.3533 |
Swallow-MS-7b-v0.1 | 7B | 0.3440 | 0.5976 | 0.5810 | 0.3364 | 0.9037 | 0.2623 |
Llama 2 | 13B | 0.3760 | 0.7255 | 0.6148 | 0.3681 | 0.9140 | 0.2403 |
Swallow | 13B | 0.3500 | 0.5852 | 0.5660 | 0.3406 | 0.9075 | 0.2039 |
Swallow-NVE | 13B | 0.3460 | 0.6025 | 0.5700 | 0.3478 | 0.9006 | 0.1751 |
Llama 2 | 70B | 0.4280 | 0.8239 | 0.6742 | 0.3770 | 0.9290 | 0.5284 |
Swallow | 70B | 0.4220 | 0.7756 | 0.6458 | 0.3745 | 0.9204 | 0.4867 |
Swallow-NVE | 70B | 0.4240 | 0.7817 | 0.6439 | 0.3451 | 0.9256 | 0.4943 |
Mixtral-8x7B-v0.1 | 8x7B | 0.3960 | 0.7989 | 0.6678 | 0.3842 | 0.9204 | 0.5747 |
Swallow-MX-8x7b-NVE-v0.1 | 8x7B | 0.3740 | 0.7847 | 0.6520 | 0.3801 | 0.9170 | 0.5694 |
請注意,Swallow-MX-8x7b-NVE-v0.1並非基於Mixtral-8x7B-v0.1開發,而是在Mixtral-8x7B-Instruct-v0.1的基礎上進行持續預訓練。
訓練數據集
持續預訓練
以下數據集用於持續預訓練:
風險與侷限性
此處發佈的模型仍處於研究和開發的早期階段,尚未進行調優以確保輸出符合人類意圖和安全考量。
致謝
感謝Mistral AI以開放許可的方式發佈Mixtral-8x7B-Instruct-v0.1,使其他開發者能夠在此基礎上進行開發。
本項目得到了日本國立先進工業科學技術研究所ABCI大規模語言模型構建支持計劃的支持。
📄 許可證
本模型採用Apache 2.0許可證。
👥 作者
岡崎實驗室(Okazaki Laboratory)
橫田實驗室(YOKOTA Laboratory)
📝 如何引用
如果您認為我們的工作有幫助,請隨意引用:
@inproceedings{Fujii:COLM2024,
title={Continual Pre-Training for Cross-Lingual LLM Adaptation:
Enhancing Japanese Language Capabilities},
author={Kazuki Fujii and Taishi Nakamura and Mengsay Loem and Hiroki
Iida and Masanari Ohi and Kakeru Hattori and Hirai Shota and Sakae
Mizuki and Rio Yokota and Naoaki Okazaki},
booktitle="Proceedings of the First Conference on Language Modeling",
series={COLM},
pages="(to appear)",
year="2024",
month=oct,
address={University of Pennsylvania, USA},
}
@inproceedings{Okazaki:COLM2024,
title={Building a Large Japanese Web Corpus for Large Language Models},
author={Naoaki Okazaki and Kakeru Hattori and Hirai Shota and Hiroki
Iida and Masanari Ohi and Kazuki Fujii and Taishi Nakamura and Mengsay
Loem and Rio Yokota and Sakae Mizuki},
booktitle="Proceedings of the First Conference on Language Modeling",
series={COLM},
pages="(to appear)",
year="2024",
month=oct,
address={University of Pennsylvania, USA},
}
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98