🚀 zefiro-7b-beta-ITA-v0.1
Zefiroは、イタリア語用にSFT微調整されたモデルで、Mistralをベースに構築されています。このプロジェクトの目的は、イタリア語に適したオープンソースのモデルとデータセットを作成することで、これは最初の実験的なモデルです。
🚀 クイックスタート
Zefiroは、Mistral をベースにした、イタリア語用のSFT微調整モデルです。プロジェクトの目的は、イタリア語に適したオープンソースのモデルとデータセットを作成することで、これは最初の実験です。このモデルは、イタリア語の特定の会話タスクのベースモデルとして使用できます。
✨ 主な機能
Zefiroは、Zephyr モデルをイタリア語に移植したもので、alignment-handbook の素晴らしいレシピを使用しています。また、バリ大学が開発した Llamantino モデルからもインスピレーションを得ています。実装には、上記の2つのモデルだけでなく、オープンソースの素晴らしいコミュニティからのさまざまなアプローチを組み合わせています。
📦 インストール
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "giux78/zefiro-7b-beta-ITA-v0.1"
model = AutoModelForCausalLM.from_pretrained(model_id)
model.to('cuda')
tokenizer = AutoTokenizer.from_pretrained(model_id, padding_side="left")
sys_prompt = "Sei un assistente disponibile, rispettoso e onesto. " \
"Rispondi sempre nel modo piu' utile possibile, pur essendo sicuro. " \
"Le risposte non devono includere contenuti dannosi, non etici, razzisti, sessisti, tossici, pericolosi o illegali. " \
"Assicurati che le tue risposte siano socialmente imparziali e positive. " \
"Se una domanda non ha senso o non e' coerente con i fatti, spiegane il motivo invece di rispondere in modo non corretto. " \
"Se non conosci la risposta a una domanda, non condividere informazioni false."
messages = [{ 'content' : sys_prompt, 'role' : 'assistant'},
{'content' : 'Crea una lista su cosa mangiare a pranzo ogni giorno della settimana a pranzo e cena', 'role' : 'user'}]
def generate_text(sys_prompt, user_prompt):
messages = [{ 'content' : sys_prompt, 'role' : 'assistant'},
{'content' : user_prompt, 'role' : 'user'}]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
model_inputs = tokenizer([prompt], return_tensors="pt").to("cuda")
generated_ids = model.generate(**model_inputs, max_new_tokens=1024)
return tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
generate_text(sys_prompt, 'cosa ne pensi della politica italiana?')
📚 ドキュメント
モデルの詳細
意図された用途と制限
このモデルは、UltraChat-ITA のフィルタリングと前処理されたバージョンで最初に微調整されました。これは、UltraChat
データセットのフィルタリングされたバージョンで、ChatGPTによって生成された多様な合成対話を含んでいます。
バイアス、リスク、および制限
Zefiro-7b-beta-ITA-v0.1は、RLHFフェーズでの安全性に関する人間の嗜好にアラインメントされていないため、ChatGPTのような応答のフィルタリングが行われていません。そのため、問題のある出力を生成する可能性があります(特にそのように促された場合)。また、ベースモデル (mistralai/Mistral-7B-v0.1
) のトレーニングに使用されたコーパスのサイズと構成は不明ですが、Webデータと書籍やコードなどの技術的なソースの混合が含まれている可能性があります。詳細は、Falcon 180Bモデルカード を参照してください。
トレーニングデータ
トレーニングデータとして、UltraChat-ITA を使用しました。これは、UltraChat
のフィルタリングされたバージョンです。データセットの翻訳には、さまざまなツールとAPIを組み合わせて使用しており、さらに多くのデータセットを翻訳するための最適なアプローチを評価しています。翻訳フェーズは重要であり、誤った構文や意味を導入する可能性があることがわかっています。
概要
Zefiro-7b-beta-ITA-v0.1は、イタリア語用にzephyrアプローチを使用してmistral-7bを微調整したバージョンです。
🔧 技術詳細
Zefiroは、Zephyr モデルをイタリア語に移植したもので、alignment-handbook のレシピを使用しています。また、バリ大学が開発した Llamantino モデルからもインスピレーションを得ています。実装には、これら2つのモデルやオープンソースコミュニティのアプローチを組み合わせています。
📄 ライセンス
このモデルは、Apache 2.0ライセンスの下で提供されています。
引用
@misc{tunstall2023zephyr,
title={Zephyr: Direct Distillation of LM Alignment},
author={Lewis Tunstall and Edward Beeching and Nathan Lambert and Nazneen Rajani and Kashif Rasul and Younes Belkada and Shengyi Huang and Leandro von Werra and Clémentine Fourrier and Nathan Habib and Nathan Sarrazin and Omar Sanseviero and Alexander M. Rush and Thomas Wolf},
year={2023},
eprint={2310.16944},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
@misc{basile2023llamantino,
title={LLaMAntino: LLaMA 2 Models for Effective Text Generation in Italian Language},
author={Pierpaolo Basile and Elio Musacchio and Marco Polignano and Lucia Siciliani and Giuseppe Fiameni and Giovanni Semeraro},
year={2023},
eprint={2312.09993},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
モデルカードの作成者
giux78
モデルカードの連絡先
ale.ercolani@gmail.com