🚀 トルコ語版Gemma-9b-v0.1
このモデルは、Gemma-2-9bをベースに、継続的事前学習、教師付き微調整(SFT)、直接嗜好最適化(DPO)、およびモデルマージを組み合わせて開発されたトルコ語用のテキスト生成モデルです。トルコ語のテキスト生成タスクに適しており、首尾一貫した文脈に沿った続きや回答を提供します。ただし、大規模な事前学習コーパス、命令微調整データ、および人間の嗜好データを含む多様な学習データの性質上、バイアスが生じる可能性があります。ユーザーはこれを認識し、責任を持ってモデルを展開する必要があります。
🚀 クイックスタート
このモデルのデモは近日公開予定です。以下のリンクからデモを試すことができます。
https://cosmos.yildiz.edu.tr/cosmosllm
モデルの性能評価のため、多様なカテゴリの1,450の質問からなるデータセットを作成しました。各質問は18人の人間のアノテーターによってレビューされ、複数のモデル間で信頼性の高い比較が可能になりました。
✨ 主な機能
🏆 モデル比較: 勝率
モデル名 |
勝率 |
Qwen/Qwen3-30B-A3B |
62.39% |
gpt-4o-mini |
62.12% |
google/gemma-3-12b-it |
61.61% |
google/gemma-2-27b-it |
57.91% |
ytu-ce-cosmos/Turkish-Gemma-9b-v0.1 |
57.30% |
google/gemma-2-9b-it |
54.13% |
ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 |
36.89% |
投票方法
質問と2つの異なるモデルからの回答を人間の審査員に提示し、審査員は自分の好みに基づいてより良い回答を選択しました。例えば、以下の質問では、審査員は右側の回答を選択しました。

📊 トルコ語評価ベンチマーク結果 (via malhajar17/lm-evaluation-harness_turkish
)
モデル名 |
平均 |
MMLU |
Truthful_QA |
ARC |
Hellaswag |
Gsm8K |
Winogrande |
Qwen/Qwen2.5-72B-Instruct |
67.69 |
77.28 |
59.86 |
61.52 |
61.98 |
83.6 |
61.92 |
google/gemma-3-27b-it |
67.36 |
70.2 |
57.06 |
66.98 |
66.58 |
77.52 |
65.8 |
google/gemma-2-27b-it |
65.57 |
66.49 |
57.45 |
63.65 |
63.86 |
76.54 |
65.4 |
meta-llama/Llama-3-1-70B-Instruct |
63.92 |
74.00 |
51.41 |
59.64 |
64.31 |
66.13 |
66.90 |
Qwen/Qwen2.5-32B-Instruct |
63.74 |
70.93 |
57.87 |
57.00 |
57.04 |
77.83 |
61.77 |
ytu-ce-cosmos/Turkish-Gemma-9b-v0.1 |
63.31 |
63.85 |
54.21 |
59.64 |
64.19 |
73.42 |
64.53 |
google/gemma-3-12b-it |
62.94 |
63.92 |
57.16 |
60.67 |
62.00 |
72.06 |
61.77 |
Qwen/Qwen2.5-14B-it |
60.34 |
65.28 |
59.00 |
50.00 |
52.22 |
76.77 |
58.77 |
google/gemma-2-9b-it |
59.14 |
61.07 |
55.77 |
56.31 |
56.48 |
63.10 |
62.09 |
ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 |
55.03 |
51.97 |
57.56 |
51.02 |
52.96 |
59.87 |
57.77 |
Qwen/Qwen2.5-7B-Instruct |
53.42 |
56.31 |
55.99 |
42.06 |
44.71 |
64.16 |
59.66 |
💻 使用例
基本的な使用法
import transformers
import torch
model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-v0.1"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
]
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
]
outputs = pipeline(
messages,
max_new_tokens=512,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
print(outputs[0]["generated_text"][-1])
高度な使用法
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "user", "content": "İsmi RD olan bir fonksiyon ona verilen sayının çarpmaya göre tersini döndürmektedir. Örneğin RD(3)=1/3. Buna göre RD(X)=X ifadesini doğru yapan kaç X değeri vardır?"}
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
]
outputs = model.generate(
input_ids,
max_new_tokens=512,
eos_token_id=terminators,
do_sample=False,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
📚 ドキュメント
謝辞
- Hugging Faceチームの寛大な支援により、彼らのS3ストレージからモデルをダウンロードすることができました 🤗
- この研究で使用されたコンピューティングリソースは、トルコの国立高性能コンピューティングセンター(UHeM)から助成金番号1016912023および1018512024で提供されました。
連絡先
COSMOS AI Research Group, Yildiz Technical University Computer Engineering Department
https://cosmos.yildiz.edu.tr/
cosmos@yildiz.edu.tr
📄 ライセンス
gemma2