🚀 チューリッヒ14B GammaCorpus v2-10k
GammaCorpusデータセットでファインチューニングされたQwen 2.5モデル
🚀 クイックスタート
チューリッヒ14B GammaCorpus v2-10kは、アリババのQwen 2.5 14B Instructモデルをファインチューニングしたものです。チューリッヒは、同程度のサイズの他のモデルを上回る性能を発揮し、GammaCorpus v2-10kを展示するように設計されています。
✨ 主な機能
このモデルは、テキスト生成に特化しており、多様な会話形式のテキストを生成することができます。GammaCorpusデータセットを用いて訓練されているため、構造化された多ターン会話に対応しています。
📦 インストール
必要条件
transformers
パッケージの最新バージョンの使用を強くおすすめします。以下のコマンドでpip
を使ってインストールできます。
pip install transformers
💻 使用例
基本的な使用法
以下は、apply_chat_template
を使用してトークナイザーとモデルをロードし、内容を生成するコードスニペットです。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "rubenroy/Zurich-14B-GCv2-10k"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "How tall is the Eiffel tower?"
messages = [
{"role": "system", "content": "You are Zurich, an AI assistant built on the Qwen 2.5 14B model developed by Alibaba Cloud, and fine-tuned by Ruben Roy. You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
📚 ドキュメント
モデルの詳細
- ベースモデル: Qwen/Qwen2.5-14B-Instruct
- タイプ: 因果言語モデル
- アーキテクチャ: RoPE、SwiGLU、RMSNorm、およびAttention QKVバイアスを備えたTransformers
- パラメータ数: 147億
- パラメータ数 (非埋め込み): 131億
- レイヤー数: 48
- Attentionヘッド数 (GQA): Qは40、KVは8
トレーニングの詳細
Zurich-14B-GCv2-10kは、1台のA100 GPUを使って約10分間ファインチューニングされ、Unslothフレームワークでトレーニングされました。Zurich-14B-GCv2-10kは60エポックトレーニングされました。
GammaCorpusについて
このモデルとすべてのチューリッヒモデルは、GammaCorpusでトレーニングされています。GammaCorpusは、構造化されたフィルタリング済みの多ターン会話が含まれるHuggingFaceのデータセットです。GammaCorpusには、それぞれ異なるサイズの4つのバージョンがあります。以下はそのバージョンとサイズです。
GammaCorpus v1
- 10k 未フィルター
- 50k 未フィルター
- 70k 未フィルター
GCv1データセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-v1-67935e4e52a04215f15a7a60
GammaCorpus v2
- 10k <-- あなたが使用しているチューリッヒモデルは、このGammaCorpus v2のバージョンでトレーニングされています。
- 50k
- 100k
- 500k
- 1m
- 5m
GCv2データセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-v2-67935e895e1259c404a579df
GammaCorpus CoT
GC-CoTデータセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-cot-6795bbc950b62b1ced41d14f
GammaCorpus QA
GC-QAデータセットコレクションへのリンクはこちらです。
https://huggingface.co/collections/rubenroy/gammacorpus-qa-679857017bb3855234c1d8c7
完全なGammaCorpusデータセットコレクションへのリンクはこちらです。
既知の制限事項
- バイアス: できる限りバイアスを軽減しようとしましたが、モデルが偏った回答を生成する可能性があることに注意してください。
追加情報
ライセンス情報
このモデルは**Apache 2.0 License**の下でリリースされています。使用権と制限事項については、ライセンスを参照してください。
📄 ライセンス
このモデルは、Apache 2.0 Licenseの下で提供されています。