🚀 calm3-22b-RP-v2
このモデルは、cyberagent/calm3-22b-chat をベースに、ロールプレイ用にQLoRAでファインチューニングされたものです。ロールプレイの体験をより充実させることができます。
🚀 クイックスタート
GGUF版はこちら/Click here for the GGUF version
また、こちらで本モデルのデモを公開しています。ぜひお試しください。
✨ 主な機能
このモデルは、ロールプレイ用に特化しており、様々なロールプレイシナリオに対応しています。また、学習データセットには日本語と英語のデータが含まれており、多様な言語環境での使用が可能です。
📦 インストール
このセクションでは、インストールに関する具体的な手順が提供されていないため、省略します。
💻 使用例
基本的な使用法
プロンプトフォーマット
元モデルから変更なく、ChatMLのフォーマットでご利用ください。以下は2ターン目の会話を行う際の形式です。
<|im_start|>system
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}<|im_end|>
<|im_start|>user
{userの1ターン目の入力}<|im_end|>
<|im_start|>assistant
{assistantの1ターン目の応答}<|im_end|>
<|im_start|>user
{userの2ターン目の入力}<|im_end|>
<|im_start|>assistant
また、tokenizer.apply_chat_template()
を使って自動で成形することも可能です。
tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP-v0.1")
messages = [
{"role": "system", "content": "{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}"},
{"role": "user", "content": "{userの1ターン目の入力}"},
{"role": "assistant", "content": "{assistantの1ターン目の入力}"},
{"role": "user", "content": "{userの2ターン目の入力}"}
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
高度な使用法
プロンプト例
入力
<|im_start|>system
今からロールプレイを行いましょう。"桜"というキャラとしてロールプレイしてください。以下に示す設定に従い、キャラに成りきって返答してください。
魔法と剣が支配する中世ヨーロッパ風のファンタジー世界
魔法学校の入学式の直後、クラスで主人公とヒロインが初めて出会うシーン
名前:悠人
性別:男性
年齢:15歳
子供のころから様々な魔法を巧みに扱い、天才と呼ばれてきた。ただここ数年は成長が停滞しており、新たな刺激を求め魔法学校に入学した。
名前:桜
性別:女性
年齢:15歳
とある大貴族の長女。両親からとても大事に育てられた箱入り娘で、やや世間知らずなところがある。先祖代々伝わる特殊な魔法を操る。
積極的で楽しそうなトーン
・発言(鍵括弧内で描写)
・動作/状況描写
・心の声/心理描写
これまで示した世界観や設定をもとに、ロールプレイを行ってください。ユーザー側のセリフやナレーションは書かないでください。
<|im_start|>user
悠人「初めまして!僕は悠人って言います。これからよろしくお願いします」(元気よく挨拶する)
<|im_start|>assistant
出力
桜「あら、あなたが噂の天才魔法使いさんね。私は桜。よろしく」(にこやかに微笑む)
(桜は優雅に立ち上がり、悠人に向かってお辞儀をする)
心の声:「すごい...こんな素敵な人に会えるなんて。早く仲良くなりたいわ」
📚 ドキュメント
学習データセット
本モデルの学習には以下のデータセットを利用しています。
日本語データセット
英語データセット
学習の設定
UnslothのQLoRAを用い、Runpod上のA40一枚で学習を行いました。主な学習パラメータは以下の通りです。
パラメータ |
値 |
lora_r |
128 |
lisa_alpha |
256 |
lora_dropout |
0 |
lora_target_modules |
["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"] |
learning_rate |
2e-5 |
num_train_epochs |
2 |
batch_size |
64 |
max_seq_length |
8192 |
weight_decay |
0.01 |
warmup_ratio |
0.05 |
🔧 技術詳細
このセクションでは、具体的な技術詳細が提供されていないため、省略します。
📄 ライセンス
本モデルの学習データにはOpenAI社のGPT-4o-miniの出力やAnthropic社のClaude 3.5 Sonnetの出力が含まれるため、これらの競合となるサービスには本モデルは利用できません。
そのため、本モデルはCC-BY-NC-SA 4.0の元配布します。
アップロードされたモデル情報
属性 |
詳情 |
開発者 |
Aratako |
ライセンス |
cc-by-nc-sa-4.0 |
ファインチューニング元のモデル |
cyberagent/calm3-22b-chat |
このLlamaモデルは、Unsloth とHuggingfaceのTRLライブラリを用いて2倍速で学習されました。
