🚀 🔬 Einstein-v7-Qwen2-7B
このモデルは、多様なデータセットを用いてQwen/Qwen2-7Bを完全にファインチューニングしたバージョンです。
このモデルは、axolotlを使用して8xMI300X
でファインチューニングされています。
このモデルは、TensorWaveのコンピューティングリソースを用いてトレーニングされています。

🚀 クイックスタート
このモデルを使用するには、以下の手順に従ってください。まず、モデルのベースとなるQwen/Qwen2-7Bを理解し、その上で多様なデータセットを用いたファインチューニングについて把握することが重要です。
✨ 主な機能
📚 ドキュメント
ベースモデル
データセット
- allenai/ai2_arc
- camel-ai/physics
- camel-ai/chemistry
- camel-ai/biology
- camel-ai/math
- metaeval/reclor
- openbookqa
- mandyyyyii/scibench
- derek-thomas/ScienceQA
- TIGER-Lab/ScienceEval
- jondurbin/airoboros-3.2
- LDJnr/Capybara
- Cot-Alpaca-GPT4-From-OpenHermes-2.5
- STEM-AI-mtl/Electrical-engineering
- knowrohit07/saraswati-stem
- sablo/oasst2_curated
- lmsys/lmsys-chat-1m
- TIGER-Lab/MathInstruct
- bigbio/med_qa
- meta-math/MetaMathQA-40K
- openbookqa
- piqa
- metaeval/reclor
- derek-thomas/ScienceQA
- scibench
- sciq
- Open-Orca/SlimOrca
- migtissera/Synthia-v1.3
- TIGER-Lab/ScienceEval
- allenai/WildChat
- microsoft/orca-math-word-problems-200k
- openchat/openchat_sharegpt4_dataset
- teknium/GPTeacher-General-Instruct
- m-a-p/CodeFeedback-Filtered-Instruction
- totally-not-an-llm/EverythingLM-data-V3
- HuggingFaceH4/no_robots
- OpenAssistant/oasst_top1_2023-08-25
- WizardLM/WizardLM_evol_instruct_70k
- abacusai/SystemChat-1.1
- H-D-T/Buzz-V1.2
axolotl設定
axolotl設定を表示
axolotlバージョン: 0.4.0
base_model: Qwen/Qwen2-7B
model_type: AutoModelForCausalLM
tokenizer_type: AutoTokenizer
load_in_8bit: false
load_in_4bit: false
strict: false
chat_template: chatml
datasets:
- path: data/airoboros_3.2_without_contextual_slimorca_orca_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/allenai_wild_chat_gpt4_english_toxic_random_half_4k_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/buzz_unstacked_chosen_math_removed_filtered.json
ds_type: json
type: alpaca
conversation: chatml
- path: data/capybara_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/cot_alpaca_gpt4_extracted_openhermes_2.5_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/everythinglm-data-v3_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/gpt4_data_lmys_1m_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/gpteacher-instruct-special-alpaca.json
ds_type: json
type: gpteacher
conversation: chatml
- path: data/merged_all.json
ds_type: json
type: alpaca
conversation: chatml
- path: data/no_robots_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/oasst_top1_from_fusechatmixture_sharegpt.json
ds_type: json
type: sharegpt
strict: false
conversation: chatml
- path: data/pippa_bagel_repo_3k_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/rpguild_quarter_alignment_lab_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/sharegpt_gpt4_english.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/slimorca_dedup_filtered_95k_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/soda_diaolog_longest_tenth_buzz_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/synthia-v1.3_sharegpt_12500.json
ds_type: json
type: sharegpt
conversation: chatml
- path: data/system_conversations_dolphin_sharegpt.json
ds_type: json
type: sharegpt
conversation: chatml
dataset_prepared_path: last_run_prepared
val_set_size: 0.002
output_dir: ./Einstein-v7-Qwen2-7B-model
sequence_len: 8192
sample_packing: true
pad_to_sequence_len: true
eval_sample_packing: false
wandb_project: Einstein
wandb_entity:
wandb_watch:
wandb_name:
wandb_log_model:
hub_model_id: Weyaxi/Einstein-v7-Qwen2-7B
gradient_accumulation_steps: 4
micro_batch_size: 6
num_epochs: 2
optimizer: paged_adamw_8bit
lr_scheduler: cosine
learning_rate: 0.00001
train_on_inputs: false
group_by_length: false
bf16: auto
fp16:
tf32: false
gradient_checkpointing: unsloth
gradient_checkpointing_kwargs:
use_reentrant: true
early_stopping_patience:
resume_from_checkpoint:
local_rank:
logging_steps: 1
xformers_attention:
flash_attention: true
warmup_steps: 10
evals_per_epoch: 2
eval_table_size:
eval_max_new_tokens: 128
saves_per_epoch: 1
debug:
deepspeed: deepspeed_configs/zero3_bf16.json
weight_decay: 0.05
fsdp:
fsdp_config:
special_tokens:
eos_token: "<|im_end|>"
pad_token: "<|end_of_text|>"
tokens:
- "<|im_start|>"
- "<|im_end|>"
プロンプトテンプレート
モデルを使用する際には、ChatMLプロンプトテンプレートを使用できます。
ChatML
<|im_start|>system
{system}<|im_end|>
<|im_start|>user
{user}<|im_end|>
<|im_start|>assistant
{asistant}<|im_end|>
このプロンプトテンプレートは、chat templateとして利用可能です。つまり、tokenizer.apply_chat_template()
メソッドを使用してメッセージをフォーマットできます。
messages = [
{"role": "system", "content": "You are helpful AI asistant."},
{"role": "user", "content": "Hello!"}
]
gen_input = tokenizer.apply_chat_template(message, return_tensors="pt")
model.generate(**gen_input)
データセットについて
このモデルのトレーニングに使用されたデータセットは、モデルカードのメタデータセクションに記載されています。メタデータに記載されている一部のデータセットは、様々な基準に基づいてフィルタリングされている場合があります。このフィルタリングプロセスの結果は、別のリポジトリにあります。
Weyaxi/sci-datasets/main
量子化バージョン
- https://huggingface.co/bartowski/Einstein-v7-Qwen2-7B-GGUF
- https://huggingface.co/bartowski/Einstein-v7-Qwen2-7B-exl2
評価結果
Open LLM Leaderboard v2 Evaluation Resultsの詳細な結果は、こちらで確認できます。
メトリック |
値 |
平均 |
24.01 |
IFEval (0-Shot) |
41.00 |
BBH (3-Shot) |
32.84 |
MATH Lvl 5 (4-Shot) |
15.18 |
GPQA (0-shot) |
6.60 |
MuSR (0-shot) |
14.06 |
MMLU-PRO (5-shot) |
34.40 |
その他のリソース
🐦 アナウンスツイート
- https://twitter.com/Weyaxi/status/1809644014515154961
🔍 Reddit投稿
- https://www.reddit.com/r/LocalLLaMA/comments/1dy6o4l/introducing_einstein_v7_based_on_the_qwen2_7b/
トレーニングに関する追加情報
このモデルは、2エポックで完全にファインチューニングされています。総ステップ数は500です。
損失グラフを表示

📄 ライセンス
このモデルのライセンスは、other
です。
🤝 謝辞
データセットセクションに記載されているすべてのデータセットの作成者に感謝します。
このモデルを作成するために使用したリポジトリを提供してくれたaxolotlに感謝します。
すべてのオープンソースAIコミュニティに感謝します。

もし私をサポートしたい場合は、以下のリンクから支援できます。
☕ Buy Me a Coffee