🚀 🧪 YamshadowExperiment28-7B
🎉 YamshadowExperiment28-7Bは現在(2024年4月8日)、Open LLM Leaderboardで最も性能の高い7Bモデルです。ただし、ベンチマークに過学習している可能性があるため、注意して使用してください。
YamshadowExperiment28-7Bは、Maxime Labonneによって自動的にマージされたモデルで、以下の設定を使用して作成されています。

🚀 クイックスタート
このモデルを使用するには、以下の手順に従ってください。
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "automerger/YamshadowExperiment28-7B"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
✨ 主な機能
- このモデルは8kのコンテキストウィンドウを使用しています。Alpacaチャットテンプレート(LM Studioで完璧に動作します)と一緒に使用することをおすすめします。
- ただし、モデルは時々壊れて、大量の"INST"を出力することがあります。経験上、Open LLM Leaderboardでの優れた結果は、過学習の兆候である可能性が高いです。
💻 使用例
基本的な使用法
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "automerger/YamshadowExperiment28-7B"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
🔧 技術詳細
モデルのマージ設定
slices:
- sources:
- model: automerger/YamShadow-7B
layer_range: [0, 32]
- model: yam-peleg/Experiment28-7B
layer_range: [0, 32]
merge_method: slerp
base_model: automerger/YamShadow-7B
parameters:
t:
- filter: self_attn
value: [0, 0.5, 0.3, 0.7, 1]
- filter: mlp
value: [1, 0.5, 0.7, 0.3, 0]
- value: 0.5
dtype: bfloat16
random_seed: 0
⚡ 量子化モデル
- GGUF: https://huggingface.co/automerger/YamshadowExperiment28-7B-GGUF
🏆 評価
Open LLM Leaderboard
YamshadowExperiment28-7Bは現在(2024年4月8日)、Open LLM Leaderboardで最も性能の高い7Bモデルです。

EQ-bench
Samuel J. Paech氏による評価を行っていただき、ありがとうございます。

Nous
LLM AutoEvalを使用して評価を行っています。全体のランキングはこちらで確認できます。

🌳 モデルの家族樹

📄 ライセンス
このモデルはApache-2.0ライセンスの下で提供されています。