🚀 Zurich 14B GammaCorpus v2-50k
GammaCorpusデータセットでファインチューニングされたQwen 2.5モデル

🚀 クイックスタート
Zurich 14B GammaCorpus v2-50kは、AlibabaのQwen 2.5 14B Instructモデルをファインチューニングしたものです。Zurichは、同じサイズの他のモデルを上回る性能を発揮するように設計されており、GammaCorpus v2-50kを紹介することもできます。
✨ 主な機能
モデル詳細
プロパティ |
詳細 |
ベースモデル |
Qwen/Qwen2.5-14B-Instruct |
モデルタイプ |
因果言語モデル |
アーキテクチャ |
RoPE、SwiGLU、RMSNorm、およびAttention QKVバイアスを備えたTransformers |
パラメータ数 |
147億 |
パラメータ数 (非埋め込み) |
131億 |
レイヤー数 |
48 |
アテンションヘッド数 (GQA) |
Qに40、KVに8 |
トレーニング詳細
Zurich-14B-GCv2-50kは、1台のA100 GPUで約20分間ファインチューニングされ、Unslothフレームワークを使用してトレーニングされました。Zurich-14B-GCv2-50kは60エポックでトレーニングされました。
📦 インストール
必要条件
transformers
パッケージの最新バージョンの使用を強くおすすめします。以下のようにpip
を介してインストールできます。
pip install transformers
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "rubenroy/Zurich-14B-GCv2-50k"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "How tall is the Eiffel tower?"
messages = [
{"role": "system", "content": "You are Zurich, an AI assistant built on the Qwen 2.5 14B model developed by Alibaba Cloud, and fine-tuned by Ruben Roy. You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
📚 ドキュメント
GammaCorpusについて
このモデルとすべてのZurichモデルは、GammaCorpusを使用してトレーニングされています。GammaCorpusは、構造化されたフィルタリング済みのマルチターン会話が含まれるHuggingFaceのデータセットです。
GammaCorpusには、それぞれ異なるサイズの4つのバージョンがあります。以下は、各バージョンとサイズです。
GammaCorpus v1
- 10k 未フィルター
- 50k 未フィルター
- 70k 未フィルター
GCv1データセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-v1-67935e4e52a04215f15a7a60
GammaCorpus v2
- 10k
- 50k <-- これが、使用しているZurichモデルがトレーニングされたGammaCorpus v2のバージョンです。
- 100k
- 500k
- 1m
- 5m
GCv2データセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-v2-67935e895e1259c404a579df
GammaCorpus CoT
GC-CoTデータセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-cot-6795bbc950b62b1ced41d14f
GammaCorpus QA
GC-QAデータセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-qa-679857017bb3855234c1d8c7
完全なGammaCorpusデータセットコレクションへのリンクはこちらから見つけることができます。
既知の制限事項
- バイアス:できる限りバイアスを軽減しようとしましたが、モデルが偏った回答を生成する可能性があることにご注意ください。
追加情報
ライセンス情報
このモデルは、Apache 2.0 License の下でリリースされています。使用権限と制限については、ライセンスを参照してください。