🚀 KARAKURI LM 8x7B Chat v0.1
このモデルは、主に英語と日本語に対応したMixture of Experts(MoE)型のモデルで、tokyotech-llm/Swallow-MX-8x7b-NVE-v0.1 をベースに微調整されています。

🚀 クイックスタート
KARAKURI LM 8x7B Chat v0.1は、高度な自然言語処理能力を持つモデルです。以下のセクションでは、このモデルの詳細、使い方、パフォーマンス、トレーニングの詳細について説明します。
✨ 主な機能
- 主に英語と日本語に対応した自然言語処理が可能。
- 独自のプロンプトフォーマットを用いて、多様な属性値を指定できる。
- 高度なパフォーマンスを持ち、MT-Bench-jpで高いスコアを記録。
📚 ドキュメント
🔍 モデル詳細
💻 使用例
基本的な使用法
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("karakuri-ai/karakuri-lm-8x7b-chat-v0.1")
messages = [
{"role": "system", "content": "System prompt"},
{"role": "user", "content": "User prompt"},
{"role": "assistant", "content": "Model response"},
{"role": "user", "content": "User prompt"},
]
tokenizer.apply_chat_template(messages, tokenize=False)
高度な使用法
messages = [
{"role": "user", "content": "User prompt", "helpfulness": 0, "complexity": 0},
]
tokenizer.apply_chat_template(messages, tokenize=False)
モデルの実行
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained(
"karakuri-ai/karakuri-lm-8x7b-chat-v0.1",
torch_dtype="auto",
device_map="auto",
)
messages = [
{
"role": "user",
"content": "週末に日帰りで東京に遊びに行こうと思っています。日帰りなので、短時間で回れるおすすめの観光プランを教えてください。",
},
]
input_ids = tokenizer.apply_chat_template(
messages,
return_tensors="pt",
).to(model.device)
outputs = model.generate(input_ids, max_new_tokens=512)
tokenizer.decode(outputs[0][input_ids.shape[-1]:])
⚠️ 注意事項
⚠️ 重要提示
プロンプトフォーマットは KARAKURI LM 70B Chat v0.1 から変更されています。正しいフォーマットに従ってください。そうしないと、モデルの出力が最適ではなくなります。
📊 パフォーマンス
モデル |
有効パラメータ数 |
アライメント |
MT-Bench-jp |
Qwen1.5 72B Chat |
72B |
DPO |
8.19 |
KARAKURI LM 8x7B Chat v0.1 |
13B |
SteerLM |
7.54 |
Command R+ |
104B |
- |
7.31 |
Mixtral 8x7B Instruct v0.1 |
13B |
DPO |
7.24 |
Llama 3 70B Instruct |
70B |
RLHF |
7.13 |
KARAKURI LM 70B Chat v0.1 |
70B |
SteerLM |
6.43 |
Llama 2 70B Chat |
70B |
RLHF |
5.23 |
🔧 技術詳細
トレーニングデータ
トレーニングインフラストラクチャ
- ハードウェア:このモデルは、Amazon EC2 trn1.32xlargeインスタンスの8ノードでトレーニングされました。
- ソフトウェア:neuronx-nemo-megatron をベースにしたコードを使用しています。
📄 ライセンス
このモデルはApache 2.0ライセンスの下で提供されています。
📖 引用
@misc{karakuri_lm_8x7b_chat_v01,
author = { {KARAKURI} {I}nc. },
title = { {KARAKURI} {LM} 8x7{B} {C}hat v0.1 },
year = { 2024 },
url = { https://huggingface.co/karakuri-ai/karakuri-lm-8x7b-chat-v0.1 },
publisher = { Hugging Face },
journal = { Hugging Face repository }
}