🚀 rinna/nekomata-14b
本項目基於日語和英語混合數據集的660億個標記,對qwen-14b進行持續預訓練,顯著提升了模型在日語任務上的表現。
🚀 快速開始
本模型是在qwen-14b的基礎上,在日語和英語混合數據集的660億標記上進行持續預訓練得到的。持續預訓練顯著提升了模型在日語任務上的性能,同時還具備原Qwen模型的以下出色特性:
- 包含廣泛的Qwen詞彙表(詞彙量 > 150k),使模型處理日語文本的效率比之前發佈的youri系列更高。
- 模型支持的最大序列長度為8192。
nekomata
這個名字來源於日語單詞貓又/ねこまた/Nekomata
,它是一種日本神話生物(妖怪/ようかい/Youkai
)。
✨ 主要特性
訓練相關
- 使用庫:該模型使用基於aws-neuron/neuronx-nemo-megatron的代碼進行訓練。
- 模型架構:這是一個基於Transformer的40層、隱藏層大小為5120的語言模型。有關架構細節,請參考Qwen論文。
- 持續預訓練:模型以qwen-14b為基礎進行初始化,並在以下混合語料庫的約660億標記上進行持續訓練:
- 訓練基礎設施:
nekomata-14B
在由AWS Trainium專用機器學習加速芯片驅動的16個Amazon EC2 trn1.32xlarge實例節點上進行訓練。預訓練任務在大約7天的時間內完成。
- 貢獻者:
- 發佈日期:2023年12月21日
基準測試
請參考rinna的語言模型基準測試頁面(2023年12月21日工作表)。
💻 使用示例
基礎用法
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("rinna/nekomata-14b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("rinna/nekomata-14b", device_map="auto", trust_remote_code=True)
text = "西田幾多郎は、"
token_ids = tokenizer.encode(text, add_special_tokens=False, return_tensors="pt")
with torch.no_grad():
output_ids = model.generate(
token_ids.to(model.device),
max_new_tokens=200,
min_new_tokens=200,
do_sample=True,
temperature=1.0,
top_p=0.95,
pad_token_id=tokenizer.pad_token_id,
bos_token_id=tokenizer.bos_token_id,
eos_token_id=tokenizer.eos_token_id
)
output = tokenizer.decode(output_ids.tolist()[0])
print(output)
📚 詳細文檔
分詞
該模型使用原始的Qwen分詞器。它在cl100k
tiktoken分詞器的基礎上進行了擴展,詞彙量為151,936。廣泛的詞彙表有助於模型實現更好的分詞效率,特別是對於日語文本。
我們在不同的文本集合上比較了Qwen
分詞器(nekomata
中使用)和llama-2
分詞器(youri
中使用),發現Qwen分詞器實現了更好的字節到標記率(即每1字節文本產生的平均標記數),如下所示。較低的字節到標記率表示更好的分詞效率。
分詞器 |
日語 |
英語 |
多語言 |
Qwen |
0.24 |
0.27 |
0.27 |
llama-2 |
0.40 |
0.29 |
0.36 |
引用方式
@misc{rinna-nekomata-14b,
title = {rinna/nekomata-14b},
author = {Zhao, Tianyu and Kaga, Akio and Sawada, Kei},
url = {https://huggingface.co/rinna/nekomata-14b}
}
@inproceedings{sawada2024release,
title = {Release of Pre-Trained Models for the {J}apanese Language},
author = {Sawada, Kei and Zhao, Tianyu and Shing, Makoto and Mitsui, Kentaro and Kaga, Akio and Hono, Yukiya and Wakatsuki, Toshiaki and Mitsuda, Koh},
booktitle = {Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024)},
month = {5},
year = {2024},
pages = {13898--13905},
url = {https://aclanthology.org/2024.lrec-main.1213},
note = {\url{https://arxiv.org/abs/2404.01657}}
}
📄 許可證
通義千問許可協議