🚀 マエストラーレチャットベータ ༄
@efederici と @mferraretto による開発
このモデルは、イタリア語向けの高性能な言語モデルで、様々なタスクでの使用が想定されています。
✨ 主な機能
モデル概要
- 言語モデル:イタリア語用のMistral - 7bを使用し、精選された大規模な高品質コーパスでイタリア語の継続事前学習を行い、occiglot とマージしました。
- ファインチューニング:170万の会話/命令に対して2エポックのSFTを実行しました。
- DPO:複数のデータセットでDPOによるアライメントを行いました。
v0.4
- エージェント機能
- 真実性の向上
- 数学と推論能力の向上
- メルマイドマインドマップのサポート
- より多くのラテン語翻訳、詩など
このモデルはChatMLプロンプト形式を使用しています。
<|im_start|>system
Sei un assistente utile.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
スコア
タスク |
バージョン |
フィルター |
n - shot |
評価指標 |
値 |
± |
標準誤差 |
hellaswag_it |
1 |
none |
0 |
acc |
0.5270 |
± |
0.0052 |
|
|
none |
0 |
acc_norm |
0.7037 |
± |
0.0048 |
arc_it |
1 |
none |
0 |
acc |
0.1771 |
± |
0.0112 |
|
|
none |
0 |
acc_norm |
0.5218 |
± |
0.0146 |
m_mmlu_it |
0 |
none |
5 |
acc |
0.5623 |
± |
0.0043 |
📦 インストール
このセクションでは、モデルを使用するための基本的なセットアップ手順を説明します。
from transformers import (
AutoTokenizer,
AutoModelForCausalLM,
GenerationConfig,
TextStreamer
)
import torch
tokenizer = AutoTokenizer.from_pretrained("mii-llm/maestrale-chat-v0.4-beta")
model = AutoModelForCausalLM.from_pretrained("mii-llm/maestrale-chat-v0.4-beta", load_in_8bit=True, device_map="auto")
gen = GenerationConfig(
do_sample=True,
temperature=0.7,
repetition_penalty=1.2,
top_k=50,
top_p=0.95,
max_new_tokens=500,
pad_token_id=tokenizer.eos_token_id,
eos_token_id=tokenizer.convert_tokens_to_ids("<|im_end|>")
)
streamer = TextStreamer(tokenizer, skip_prompt=True)
messages = [
{"role": "system", "content": "Sei un assistente utile."},
{"role": "user", "content": "{prompt}"}
]
with torch.no_grad():
temp = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(temp, return_tensors="pt").to("cuda")
_ = model.generate(
**inputs,
streamer=streamer,
generation_config=gen
)
💻 使用例
基本的な使用法
from transformers import (
AutoTokenizer,
AutoModelForCausalLM,
GenerationConfig,
TextStreamer
)
import torch
tokenizer = AutoTokenizer.from_pretrained("mii-llm/maestrale-chat-v0.4-beta")
model = AutoModelForCausalLM.from_pretrained("mii-llm/maestrale-chat-v0.4-beta", load_in_8bit=True, device_map="auto")
gen = GenerationConfig(
do_sample=True,
temperature=0.7,
repetition_penalty=1.2,
top_k=50,
top_p=0.95,
max_new_tokens=500,
pad_token_id=tokenizer.eos_token_id,
eos_token_id=tokenizer.convert_tokens_to_ids("<|im_end|>")
)
streamer = TextStreamer(tokenizer, skip_prompt=True)
messages = [
{"role": "system", "content": "Sei un assistente utile."},
{"role": "user", "content": "{prompt}"}
]
with torch.no_grad():
temp = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(temp, return_tensors="pt").to("cuda")
_ = model.generate(
**inputs,
streamer=streamer,
generation_config=gen
)
高度な使用法
マインドマップ
messages = [
{"role": "system", "content": "Fornisci una mindmap Mermaid sull'argomento in input."},
{"role": "user", "content": "Argomento: [argomento]"}
]
SQL
schema = "[db schema]"
messages = [
{"role": "system", "content": f"Sei un assistente SQL e il tuo compito è convertire la domanda dell'utente in codice SQL valido rispetto allo schema del database fornito.\n\nSchema:\n```sql\n{schema}\n```"},
{"role": "user", "content": "Conta il numero di X prodotti dall'azienda Y"}
]
インデックスからの記事作成
messages = [
{"role": "system", "content": "Sei un assistente utile."},
{"role": "user", "content": (
"Scrivi un articolo a partire dal titolo e dall'indice dei contenuti.\n\n"
"Titolo: [titolo]\n\n"
"Indice:\n\n"
"1. Introduzione\n"
"2. [heading]\n"
"..."
)}
]
📚 ドキュメント
想定される使用法と制限事項
これはベータ版です。かなり 安全
であり、有毒な質問には回答を拒否することができます。

📄 ライセンス
このモデルはCC - BY - NC - 4.0ライセンスの下で提供されています。