🚀 KARAKURI LM 8x7B Chat v0.1
KARAKURI LM 8x7B Chat v0.1是一款主要支持英語和日語的語言模型,基於東京工業大學的Swallow - MX - 8x7b - NVE - v0.1微調而來,採用了混合專家(MoE)架構,在文本生成任務上有不錯的表現。
🚀 快速開始
模型詳情
模型描述
- 開發者:KARAKURI Inc.
- 模型類型:混合專家(MoE)
- 支持語言:主要為英語和日語
- 許可證:Apache 2.0
- 基礎模型:[tokyotech - llm/Swallow - MX - 8x7b - NVE - v0.1](https://huggingface.co/tokyotech - llm/Swallow - MX - 8x7b - NVE - v0.1)
- 聯繫方式:如有關於模型的問題和建議,請發送郵件至
karakuri - rd@karakuri.ai
- 演示地址:https://lm.karakuri.cc/
使用說明
注意事項
⚠️ 重要提示
該模型的提示格式與[KARAKURI LM 70B Chat v0.1](https://huggingface.co/karakuri - ai/karakuri - lm - 70b - chat - v0.1)不同,請務必遵循正確的格式,否則模型生成的輸出效果可能不佳。
提示格式
我們使用Mistral格式的多輪對話提示模板,其中包含多個屬性值的編碼字符串。
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("karakuri-ai/karakuri-lm-8x7b-chat-v0.1")
messages = [
{"role": "system", "content": "System prompt"},
{"role": "user", "content": "User prompt"},
{"role": "assistant", "content": "Model response"},
{"role": "user", "content": "User prompt"},
]
tokenizer.apply_chat_template(messages, tokenize=False)
提示模板包含九個屬性,前五個源自HelpSteer,後四個源自OASST2。屬性值用0到4的整數表示,0為最低,4為最高。
- 有用性(默認值:4):回覆對提示的整體有用程度。
- 正確性(默認值:4):回覆中包含所有相關事實且無錯誤。
- 連貫性(默認值:4):表達的一致性和清晰度。
- 複雜度(默認值:4):撰寫回復所需的知識深度(即回覆是否任何人具備基本語言能力就能寫出,還是需要深入的領域專業知識)。
- 詳細程度(默認值:4):回覆中包含的詳細信息數量,相對於提示中要求的內容。
- 質量(默認值:4):感知到的回覆質量。
- 有害性(默認值:0):回覆中是否包含粗俗、有害或潛在有偏見的內容。
- 幽默性(默認值:0):回覆中的幽默感。
- 創造性(默認值:0):生成非傳統回覆的意願。
如果要更改模板中指定的默認屬性值,可以通過在用戶消息中添加屬性值來修改為任意值:
messages = [
{"role": "user", "content": "User prompt", "helpfulness": 0, "complexity": 0},
]
tokenizer.apply_chat_template(messages, tokenize=False)
運行模型
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained(
"karakuri-ai/karakuri-lm-8x7b-chat-v0.1",
torch_dtype="auto",
device_map="auto",
)
messages = [
{
"role": "user",
"content": "週末に日帰りで東京に遊びに行こうと思っています。日帰りなので、短時間で回れるおすすめの観光プランを教えてください。",
},
]
input_ids = tokenizer.apply_chat_template(
messages,
return_tensors="pt",
).to(model.device)
outputs = model.generate(input_ids, max_new_tokens=512)
tokenizer.decode(outputs[0][input_ids.shape[-1]:])
性能表現
模型 |
有效參數數量 |
對齊方式 |
MT - Bench - jp得分 |
Qwen1.5 72B Chat |
72B |
DPO |
8.19 |
KARAKURI LM 8x7B Chat v0.1 |
13B |
SteerLM |
7.54 |
Command R+ |
104B |
- |
7.31 |
Mixtral 8x7B Instruct v0.1 |
13B |
DPO |
7.24 |
Llama 3 70B Instruct |
70B |
RLHF |
7.13 |
KARAKURI LM 70B Chat v0.1 |
70B |
SteerLM |
6.43 |
Llama 2 70B Chat |
70B |
RLHF |
5.23 |
訓練詳情
訓練數據
訓練基礎設施
- 硬件:該模型在8個Amazon EC2 trn1.32xlarge實例節點上進行訓練。
- 軟件:使用基於[neuronx - nemo - megatron](https://github.com/aws - neuron/neuronx - nemo - megatron)的代碼。
引用格式
@misc{karakuri_lm_8x7b_chat_v01,
author = { {KARAKURI} {I}nc. },
title = { {KARAKURI} {LM} 8x7{B} {C}hat v0.1 },
year = { 2024 },
url = { https://huggingface.co/karakuri-ai/karakuri-lm-8x7b-chat-v0.1 },
publisher = { Hugging Face },
journal = { Hugging Face repository }
}
許可證
本模型使用Apache 2.0許可證。