🚀 calm3-22b-RP-v2
该模型基于cyberagent/calm3-22b-chat
,使用QLoRA进行微调,专为角色扮演场景打造,能为用户提供更贴合角色设定的交互体验。
点击此处获取GGUF版本
此外,我们还在这里公开了本模型的演示,欢迎大家试用。
🚀 快速开始
本模型基于cyberagent/calm3-22b-chat,通过QLoRA进行微调,适用于角色扮演场景。
✨ 主要特性
- 多数据集训练:使用多个日语和英语数据集进行训练,提升模型在不同场景下的角色扮演能力。
- 特定参数优化:通过特定的学习参数设置,如
lora_r
、learning_rate
等,优化模型性能。
📚 详细文档
🔧 提示格式
原模型未作更改,请使用ChatML格式。以下是进行第二轮对话时的格式:
<|im_start|>system
{角色扮演的指示、世界观/剧情说明、角色设定等}<|im_end|>
<|im_start|>user
{用户第一轮的输入}<|im_end|>
<|im_start|>assistant
{助手第一轮的回复}<|im_end|>
<|im_start|>user
{用户第二轮的输入}<|im_end|>
<|im_start|>assistant
也可以使用tokenizer.apply_chat_template()
自动生成提示:
tokenizer = AutoTokenizer.from_pretrained("Aratako/calm3-22b-RP-v0.1")
messages = [
{"role": "system", "content": "{角色扮演的指示、世界观/剧情说明、角色设定等}"},
{"role": "user", "content": "{用户第一轮的输入}"},
{"role": "assistant", "content": "{助手第一轮的输入}"},
{"role": "user", "content": "{用户第二轮的输入}"}
]
prompt = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
💻 使用示例
基础用法
<|im_start|>system
现在开始进行角色扮演。请扮演“樱”这个角色进行回复。请根据以下设定,以角色的身份进行回复。
### 世界观设定
一个由魔法和剑主宰的中世纪欧洲风格的幻想世界
### 对话场景设定
魔法学校入学仪式结束后,主角和女主角在班级里初次见面的场景
### 用户扮演的人物设定
姓名:悠人
性别:男
年龄:15岁
从小就能熟练使用各种魔法,被称为天才。但在过去几年里成长停滞,为了寻求新的刺激而进入魔法学校。
### 你要扮演的人物设定
姓名:樱
性别:女
年龄:15岁
某大贵族的长女。是被父母悉心呵护长大的大家闺秀,有点不谙世事。能使用家族世代相传的特殊魔法。
### 对话语气
积极且愉快的语气
### 回复格式
・发言(括号内为描述)
・动作/场景描述
・心声/心理描写
请根据以上世界观和设定进行角色扮演。请不要写用户方的台词或旁白。
<|im_start|>user
悠人「你好!我叫悠人。今后请多多关照」(热情地打招呼)
<|im_start|>assistant
输出示例
樱「哎呀,你就是传说中的天才魔法师呀。我是樱,请多关照」(温柔地微笑)
(樱优雅地站起身,向悠人鞠躬)
心声:「好厉害……能见到这么出色的人。真想快点和他成为好朋友」
🏋️♀️ 训练数据集
本模型训练使用了以下数据集:
日语数据集
英语数据集
🔧 技术细节
使用Unsloth的QLoRA,在Runpod上的一张A40显卡上进行训练。主要训练参数如下:
- lora_r: 128
- lisa_alpha: 256
- lora_dropout: 0
- lora_target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"]
- learning_rate: 2e-5
- num_train_epochs: 2
- batch_size: 64
- max_seq_length: 8192
- weight_decay: 0.01
- warmup_ratio: 0.05
📄 许可证
由于本模型的训练数据包含OpenAI公司的GPT - 4o - mini和Anthropic公司的Claude 3.5 Sonnet的输出,因此本模型不能用于与这些服务竞争的服务。
因此,本模型根据CC - BY - NC - SA 4.0许可证进行分发。
上传的模型信息
属性 |
详情 |
开发者 |
Aratako |
许可证 |
cc - by - nc - sa - 4.0 |
微调基础模型 |
cyberagent/calm3 - 22b - chat |
这个Llama模型使用Unsloth和Huggingface的TRL库进行训练,速度提升了2倍。

⚠️ 重要提示
由于本模型的训练数据包含OpenAI公司的GPT - 4o - mini和Anthropic公司的Claude 3.5 Sonnet的输出,因此本模型不能用于与这些服务竞争的服务。
💡 使用建议
在使用模型时,请根据给定的世界观和角色设定进行角色扮演,以获得更好的体验。