🚀 Cosmos LLaMa Instruct-DPO
これはCosmosLLamaの最新かつ最も高度なバージョンです。このモデルは、2つの異なる方法で学習されたCosmosLLaMa-Instruct DPOモデルをマージすることで開発されました。
CosmosLLaMa-Instruct DPOはテキスト生成タスクを目的として設計されており、与えられたテキスト断片を首尾一貫した文脈に沿った形で続ける能力を提供します。学習データにはウェブサイト、書籍、その他のテキストソースが含まれる多様な性質のため、このモデルはバイアスを示す可能性があります。ユーザーはこれらのバイアスに注意し、責任を持ってモデルを使用する必要があります。
ここから簡単にモデルのデモを試すことができます: https://cosmos.yildiz.edu.tr/cosmosllama
🚀 クイックスタート
このモデルは、テキスト生成タスクに使用できます。以下に、transformers
パイプラインとAutoModelForCausalLM
を使用した例を示します。
💻 使用例
基本的な使用法
Transformers pipeline
import transformers
import torch
model_id = "ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "system", "content": "Sen bir yapay zeka asistanısın. Kullanıcı sana bir görev verecek. Amacın görevi olabildiğince sadık bir şekilde tamamlamak. Görevi yerine getirirken adım adım düşün ve adımlarını gerekçelendir."},
{"role": "user", "content": "Soru: Bir arabanın deposu 60 litre benzin alabiliyor. Araba her 100 kilometrede 8 litre benzin tüketiyor. Depo tamamen doluyken araba kaç kilometre yol alabilir?"},
]
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
outputs = pipeline(
messages,
max_new_tokens=256,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
print(outputs[0]["generated_text"][-1])
Transformers AutoModelForCausalLM
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
messages = [
{"role": "system", "content": "Sen bir yapay zeka asistanısın. Kullanıcı sana bir görev verecek. Amacın görevi olabildiğince sadık bir şekilde tamamlamak. Görevi yerine getirirken adım adım düşün ve adımlarını gerekçelendir."},
{"role": "user", "content": "Soru: Bir arabanın deposu 60 litre benzin alabiliyor. Araba her 100 kilometrede 8 litre benzin tüketiyor. Depo tamamen doluyken araba kaç kilometre yol alabilir?"},
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
terminators = [
tokenizer.eos_token_id,
tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
outputs = model.generate(
input_ids,
max_new_tokens=256,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=True))
📚 ドキュメント
謝辞
- Hugging Faceチームの寛大な支援に感謝します。彼らのS3ストレージからモデルをダウンロードすることができます 🤗
- この研究で使用されたコンピューティングリソースは、トルコの国立高性能コンピューティングセンター(UHeM)によって提供されまし。助成金番号は1016912023および1018512024です。
- この研究は、GoogleのTPU Research Cloud (TRC) からのクラウドTPUでサポートされています。
連絡先
COSMOS AI Research Group, Yildiz Technical University Computer Engineering Department
https://cosmos.yildiz.edu.tr/
cosmos@yildiz.edu.tr
引用
@inproceedings{kesgin2024optimizing,
title={Optimizing Large Language Models for Turkish: New Methodologies in Corpus Selection and Training},
author={Kesgin, H Toprak and Yuce, M Kaan and Dogan, Eren and Uzun, M Egemen and Uz, Atahan and {\.I}nce, Elif and Erdem, Yusuf and Shbib, Osama and Zeer, Ahmed and Amasyali, M Fatih},
booktitle={2024 Innovations in Intelligent Systems and Applications Conference (ASYU)},
pages={1--6},
year={2024},
organization={IEEE}
}
📄 ライセンス
license: llama3
プロパティ |
詳細 |
ライセンス |
llama3 |
言語 |
tr |
パイプラインタグ |
text-generation |
ベースモデル |
ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1 |
タグ |
Turkish、turkish、Llama、Llama3 |