🚀 クイックスタート
このモデルは、meta-llama/Meta-Llama-3-8B を様々なデータセットで完全にファインチューニングしたバージョンです。このモデルは、8xRTX3090
+ 1xRTXA6000
を使用して axolotl を用いてファインチューニングされています。また、このモデルのトレーニングは sablo.ai によって支援されています。

✨ 主な機能
- 様々なデータセットを用いたファインチューニングにより、多様なタスクに対応可能です。
- ChatML プロンプトテンプレートを使用でき、柔軟な対話が可能です。
📦 インストール
この README には具体的なインストール手順が記載されていないため、このセクションをスキップします。
💻 使用例
基本的な使用法
このモデルを使用する際には、ChatML プロンプトテンプレートを使用できます。
ChatML
<|im_start|>system
{system}<|im_end|>
<|im_start|>user
{user}<|im_end|>
<|im_start|>assistant
{asistant}<|im_end|>
このプロンプトテンプレートは chat template として利用可能で、tokenizer.apply_chat_template()
メソッドを使用してメッセージをフォーマットできます。
messages = [
{"role": "system", "content": "You are helpful AI asistant."},
{"role": "user", "content": "Hello!"}
]
gen_input = tokenizer.apply_chat_template(message, return_tensors="pt")
model.generate(**gen_input)
📚 ドキュメント
データセット
このモデルのトレーニングに使用されたデータセットは、モデルカードのメタデータセクションに記載されています。ただし、メタデータに記載されている一部のデータセットは、様々な基準に基づいてフィルタリングされている場合があります。このフィルタリングの結果やその成果は、このリポジトリのデータフォルダにあります。
Weyaxi/Einstein-v6.1-Llama3-8B/data
量子化バージョン
- https://huggingface.co/bartowski/Einstein-v6.1-Llama3-8B-GGUF
- https://huggingface.co/bartowski/Einstein-v6.1-Llama3-8B-exl2
- https://huggingface.co/solidrust/Einstein-v6.1-Llama3-8B-AWQ
評価結果
詳細な結果は こちら で確認できます。
指標 |
値 |
平均 |
68.60 |
AI2 Reasoning Challenge (25-Shot) |
62.46 |
HellaSwag (10-Shot) |
82.41 |
MMLU (5-Shot) |
66.19 |
TruthfulQA (0-shot) |
55.10 |
Winogrande (5-shot) |
79.32 |
GSM8k (5-shot) |
66.11 |
詳細な結果は こちら で確認できます。
指標 |
値 |
平均 |
19.99 |
IFEval (0-Shot) |
45.68 |
BBH (3-Shot) |
29.38 |
MATH Lvl 5 (4-Shot) |
5.74 |
GPQA (0-shot) |
4.25 |
MuSR (0-shot) |
11.23 |
MMLU-PRO (5-shot) |
23.68 |
関連リソース
🐦 アナウンスツイート
- https://twitter.com/Weyaxi/status/1783050724659675627
🔍 Reddit 投稿 (r/LocalLLaMA)
- https://www.reddit.com/r/LocalLLaMA/comments/1cdlym1/introducing_einstein_v61_based_on_the_new_llama3/
▶️ YouTube 動画
📱 Octopus-V4-3B
🔧 技術詳細
axolotl 設定
axolotl 設定を表示
axolotl バージョン: 0.4.0
base_model: meta-llama/Meta-Llama-3-8B
model_type: LlamaForCausalLM
tokenizer_type: AutoTokenizer
load_in_8bit: false
load_in_4bit: false
strict: false
chat_template: chatml
datasets:
- path: data/merged_all.json
ds_type: json
type: alpaca
conversation: chatml
- path: data/gpteacher-instruct-special-alpaca.json
ds_type: json
type: gpteacher
conversation: chatml
- path: data/wizardlm_evol_instruct_70k_random_half.json
ds_type: json
type: alpaca
conversation: chatml
- path: data/capybara_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/synthia-v1.3_sharegpt_12500.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/cot_alpaca_gpt4_extracted_openhermes_2.5_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/slimorca_dedup_filtered_95k_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/airoboros_3.2_without_contextual_slimorca_orca_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/allenai_wild_chat_gpt4_english_toxic_random_half_4k_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/pippa_bagel_repo_3k_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/gpt4_data_lmys_1m_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/sharegpt_gpt4_english.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/no_robots_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/oasst_top1_from_fusechatmixture_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/everythinglm-data-v3_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
dataset_prepared_path: last_run_prepared
val_set_size: 0.002
output_dir: ./Einstein-v6.1-Llama3-8B-model
sequence_len: 8192
sample_packing: true
pad_to_sequence_len: true
eval_sample_packing: false
wandb_project: Einstein
wandb_entity:
wandb_watch:
wandb_name: Einstein-v6.1-Llama3-2-epoch
wandb_log_model:
hub_model_id: Weyaxi/Einstein-v6.1-Llama3-8B
save_safetensors: true
gradient_accumulation_steps: 4
micro_batch_size: 1
num_epochs: 2
optimizer: adamw_bnb_8bit
lr_scheduler: cosine
learning_rate: 0.000005
train_on_inputs: false
group_by_length: false
bf16: true
fp16: false
tf32: false
gradient_checkpointing: true
early_stopping_patience:
resume_from_checkpoint:
local_rank:
logging_steps: 1
xformers_attention:
flash_attention: true
warmup_steps: 10
evals_per_epoch: 2
eval_table_size:
eval_table_max_new_tokens: 128
saves_per_epoch: 2
debug:
deepspeed: zero3_bf16_cpuoffload_params.json
weight_decay: 0.0
fsdp:
fsdp_config:
special_tokens:
bos_token: "<s>"
eos_token: "<|im_end|>"
unk_token: "<unk>"
pad_token: <|end_of_text|>
tokens:
- "<|im_start|>"
トレーニング情報
このモデルは 2 エポックで完全にファインチューニングされています。総ステップ数は 2026 でした。
損失グラフを表示

📄 ライセンス
このモデルのライセンスは "other" です。
🤝 謝辞
このモデルのトレーニングを支援してくれた sablo.ai に感謝します。また、データセットセクションに記載されているすべてのデータセット作成者に感謝します。このモデルを作成するために使用したリポジトリを提供してくれた axolotl とすべてのオープンソース AI コミュニティにも感謝します。

もし私を支援したい場合は、こちらからどうぞ。
☕ Buy Me a Coffee