🚀 Zurich 7B GammaCorpus v2-100k
GammaCorpusデータセットでファインチューニングされたQwen 2.5モデル
このモデルは、AlibabaのQwen 2.5 7B InstructモデルをGammaCorpusデータセットでファインチューニングしたもので、同サイズの他のモデルを上回る性能を発揮します。

🚀 クイックスタート
Zurich 7B GammaCorpus v2-100kは、AlibabaのQwen 2.5 7B Instructモデルをファインチューニングしたものです。同サイズの他のモデルを上回る性能を発揮し、GammaCorpus v2-100kを活用しています。
✨ 主な機能
モデルの詳細
Property |
Details |
Base Model |
Qwen/Qwen2.5-7B-Instruct |
Model Type |
Causal Language Models |
Architecture |
Transformers with RoPE, SwiGLU, RMSNorm, and Attention QKV bias |
Number of Parameters |
7.61B |
Number of Paramaters (Non-Embedding) |
6.53B |
Number of Layers |
28 |
Number of Attention Heads (GQA) |
28 for Q and 4 for KV |
トレーニングの詳細
Zurich-7B-GCv2-100kは、1つのT4 GPUを使用して約70分間ファインチューニングされ、Unslothフレームワークでトレーニングされました。60エポックでトレーニングされました。
📦 インストール
必要条件
transformers
パッケージの最新バージョンの使用を強くおすすめします。以下のコマンドでpip
を使用してインストールできます。
pip install transformers
💻 使用例
基本的な使用法
以下は、apply_chat_template
を使用してトークナイザーとモデルをロードし、コンテンツを生成するコードスニペットです。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "rubenroy/Zurich-7B-GCv2-100k"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "How tall is the Eiffel tower?"
messages = [
{"role": "system", "content": "You are Zurich, an AI assistant built on the Qwen 2.5 7B model developed by Alibaba Cloud, and fine-tuned by Ruben Roy. You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
📚 ドキュメント
GammaCorpusについて
このモデルとすべてのZurichモデルは、GammaCorpusでトレーニングされています。GammaCorpusは、HuggingFace上のデータセットで、構造化されたフィルタリング済みのマルチターン会話が含まれています。
GammaCorpusには、それぞれ異なるサイズの4つのバージョンがあります。以下は各バージョンとサイズです。
GammaCorpus v1
- 10k UNFILTERED
- 50k UNFILTERED
- 70k UNFILTERED
GCv1データセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-v1-67935e4e52a04215f15a7a60
GammaCorpus v2
- 10k
- 50k
- 100k <-- このZurichモデルは、このGammaCorpus v2のバージョンでトレーニングされています。
- 500k
- 1m
- 5m
GCv2データセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-v2-67935e895e1259c404a579df
GammaCorpus CoT
GC-CoTデータセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-cot-6795bbc950b62b1ced41d14f
GammaCorpus QA
GC-QAデータセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-qa-679857017bb3855234c1d8c7
完全なGammaCorpusデータセットコレクションへのリンクはこちらです。
🔧 技術詳細
既知の制限事項
- バイアス:可能な限りバイアスを軽減しようとしましたが、モデルが偏った回答を生成する可能性があることに注意してください。
📄 ライセンス
このモデルは、Apache 2.0 License の下で公開されています。使用権と制限事項については、ライセンスを参照してください。