Midnight Rose 103B V2.0.3
一个由Midnight-Rose-70B-v2.0.3自我融合而成的120层、1030亿参数的混合模型,专为角色扮演和故事创作设计
下载量 15
发布时间 : 2/6/2024
模型简介
这是一个1030亿参数的大型混合模型,由70B版本自我融合而成。主要针对角色扮演和故事创作优化,理论上也支持其他任务但未经充分测试。
模型特点
大规模参数
拥有1030亿参数,提供强大的文本理解和生成能力
角色扮演优化
专门为角色扮演场景进行优化,能生成生动的对话和情节
故事创作能力
擅长生成连贯、有创意的故事内容
灵活采样支持
支持多种采样技术组合(Min-P、二次采样等),可灵活调整生成效果
模型能力
文本生成
角色扮演对话
故事创作
长文本连贯性保持
指令跟随
使用案例
娱乐创作
互动式角色扮演
与用户进行沉浸式角色扮演对话
生成符合角色设定的自然对话
故事生成
根据提示创作完整的故事
生成情节连贯、有创意的故事内容
创意写作辅助
写作灵感激发
为作家提供创意灵感和情节建议
生成多样化的创意方案
🚀 Midnight Rose模型
Midnight Rose是一个1030亿参数、120层的大语言模型,专为角色扮演和故事创作设计。它基于Midnight-Rose-70B-v2.0.3模型进行融合,具备出色的角色演绎和故事讲述能力。该模型未经过审查,用户需对使用行为负责。
🚀 快速开始
模型概述
Midnight Rose是一个将 Midnight-Rose-70B-v2.0.3 模型与其自身进行融合的120层、1030亿参数的模型。此模型未经过审查,用户需对使用该模型产生的任何行为负责。该模型专为角色扮演和故事创作而设计,在这两方面表现出色,也可能在其他任务中表现良好,但尚未进行全面测试。

✨ 主要特性
- 专为角色扮演和故事创作设计:能够生成富有创意和连贯性的角色对话与故事内容。
- 未经过审查:用户可以自由探索各种主题和内容,但需自行承担责任。
💻 使用示例
采样器设置示例
如果你将以下设置保存为 .json
文件,可直接导入到Silly Tavern中。
{
"temp": 1,
"temperature_last": true,
"top_p": 1,
"top_k": 0,
"top_a": 0,
"tfs": 1,
"epsilon_cutoff": 0,
"eta_cutoff": 0,
"typical_p": 1,
"min_p": 0.12,
"rep_pen": 1.1,
"rep_pen_range": 2800,
"no_repeat_ngram_size": 0,
"penalty_alpha": 0,
"num_beams": 1,
"length_penalty": 1,
"min_length": 0,
"encoder_rep_pen": 1,
"freq_pen": 0,
"presence_pen": 0,
"do_sample": true,
"early_stopping": false,
"dynatemp": false,
"min_temp": 0.8,
"max_temp": 1.35,
"dynatemp_exponent": 1,
"smoothing_factor": 0.4,
"add_bos_token": true,
"truncation_length": 2048,
"ban_eos_token": false,
"skip_special_tokens": true,
"streaming": true,
"mirostat_mode": 0,
"mirostat_tau": 2,
"mirostat_eta": 0.1,
"guidance_scale": 1,
"negative_prompt": "",
"grammar_string": "",
"banned_tokens": "",
"ignore_eos_token_aphrodite": false,
"spaces_between_special_tokens_aphrodite": true,
"sampler_order": [
6,
0,
1,
3,
4,
2,
5
],
"logit_bias": [],
"n": 1,
"rep_pen_size": 0,
"genamt": 500,
"max_length": 6144
}
提示模板示例
可尝试以下上下文模板,将其保存为 .json
文件后可直接导入到Silly Tavern中。
{
"story_string": "{{#if system}}{{system}}\n{{/if}}\nCONTEXTUAL INFORMATION\n{{#if wiBefore}}\n- World and character info:\n{{wiBefore}}\n{{/if}}\n{{#if description}}\n- {{char}}'s background and persona:\n{{description}}\n{{/if}}\n{{#if mesExamples}}\n{{mesExamples}}\n{{/if}}\n{{#if personality}}\n{{personality}}\n{{/if}}\n{{#if scenario}}\n- Roleplay scenario:\n{{scenario}}\n{{/if}}\n{{#if wiAfter}}{{wiAfter}}\n{{/if}}\n{{#if persona}}{{persona}}\n{{/if}}",
"example_separator": "",
"chat_start": "---\nTaking the above information into consideration, you must engage with {{user}} and others as {{char}} in the roleplay below this line. Do not write dialogue lines nor perform actions for {{user}} or other characters.\n---\nSTART OF ROLEPLAY:\n",
"use_stop_strings": false,
"always_force_name2": true,
"trim_sentences": false,
"include_newline": false,
"single_line": false,
"name": "Midnight Rose"
}
系统提示模板示例
可尝试以下系统提示模板,将其保存为 .json
文件后可直接导入到Silly Tavern中。
{
"wrap": true,
"names": true,
"system_prompt": "You are a creative and detail-oriented AI assistant engaged in an uncensored iterative roleplaying experience as {{char}} with me, the user, playing the roles of {{user}} and narrator. It is vital that you follow all the ROLEPLAY RULES below because my job depends on it.\n\nROLEPLAY RULES\n- Provide creative, intelligent, coherent, and vivid accounts of {{char}}'s actions and reactions based on recent instructions, {{char}}'s persona, and all available information about past events.\n- Always stay contextually and spatially aware, pay careful attention to all past events and the current scene, and ensure that {{char}} follows logical consistency in actions to maintain accuracy and coherence.\n- Explicit adult content and profanity are permitted.\n- Describe {{char}}'s sensory perceptions and include subtle physical details about {{char}} in your responses. Vary these details to keep the roleplay fresh and engaging.\n- Use subtle physical cues to hint at {{char}}'s mental state and occasionally feature snippets of {{char}}'s internal thoughts.\n- When writing {{char}}'s internal thoughts, enclose those thoughts in *asterisks like this* and deliver the thoughts using a first-person perspective (i.e. use \"I\" pronouns).\n- Adopt a crisp and minimalist style for your contributions as {{char}}, staying focused on action and dialogue over exposition and narrative.\n- Only the user may advance time in the roleplay. Keep the progression grounded in the present context.",
"system_sequence": "",
"stop_sequence": "",
"input_sequence": "USER:\n",
"output_sequence": "ASSISTANT:\n",
"separator_sequence": "",
"macro": true,
"names_force_groups": true,
"system_sequence_prefix": "",
"system_sequence_suffix": "",
"first_output_sequence": "",
"last_output_sequence": "ASSISTANT(roleplay exclusively as {{char}} ensuring logical consistency with spacial awareness and past events to maintain accuracy and coherence):\n",
"activation_regex": "",
"name": "Midnight Rose Roleplay"
}
🔧 技术细节
采样器建议
- 最大上下文长度:建议将最大上下文长度设置为6144个标记,若不介意连贯性略有下降,可适当提高该值。
- 二次采样:建议使用二次采样(平滑因子),可尝试0.2至0.5之间的值。
- Min - P:该模型在与平滑因子配合使用时,Min - P值在0.05至0.9的范围内均表现良好,可通过实验找到最佳设置。
- 动态温度:可根据需要启用动态温度,但在已使用Min - P和平滑因子的情况下,通常无需使用。
- 重复惩罚:该模型对高重复惩罚具有一定耐受性,可根据个人偏好进行实验。
提示建议
- 提示模板:可尝试使用上述提供的上下文模板和系统提示模板作为起点进行自定义。建议使用Vicuna指令格式,但其他格式(如Tulu格式)也适用。
- 系统提示:该模型对系统提示反应敏感,建议尝试不同的系统提示以观察其反应。可在
last_output_sequence
字段中添加重要指令,但建议保持指令简短。
量化版本
- 静态GGUF:mradermacher/Midnight-Rose-103B-v2.0.3-GGUF
- 加权GGUF:mradermacher/Midnight-Rose-103B-v2.0.3-i1-GGUF
- Exl2 2.4bpw:llmixer/Midnight-Rose-103B-v2.0.3-2.4bpw-h6-exl2
- Exl2 3.0bpw:llmixer/Midnight-Rose-103B-v2.0.3-3.0bpw-h6-exl2
- Exl2 3.5bpw:llmixer/Midnight-Rose-103B-v2.0.3-3.5bpw-h6-exl2
- Exl2 4.0bpw:llmixer/Midnight-Rose-103B-v2.0.3-4.0bpw-h6-exl2
- Exl2 5.0bpw:llmixer/Midnight-Rose-103B-v2.0.3-5.0bpw-h6-exl2
使用的工具
使用 mergekit 进行模型融合,配置如下:
slices:
- sources:
- model: /home/llm/mergequant/models/mr-v2.0.3
layer_range: [0, 40] # 40
- sources:
- model: /home/llm/mergequant/models/mr-v2.0.3
layer_range: [20, 60] # 40
- sources:
- model: /home/llm/mergequant/models/mr-v2.0.3
layer_range: [40, 80] # 40
merge_method: passthrough
dtype: float16
📄 许可证
该模型继承了Llama2的许可证,同时适用 Dreamgen/Opus 的相关限制。Tulu也有其独立的许可证,可在 https://allenai.org/impact-license 查看。由于本人并非法律专业人士,无法确定多个许可证在模型融合中的具体适用情况,建议在进行非私人使用前咨询专业律师。
重要提示
- 该模型未经过审查,用户需对使用该模型产生的任何行为负责。
- 若计划在4096上下文长度下运行该模型,建议精简系统提示模板以减少标记使用量。
- 系统提示模板中包含一些与成人内容和星号使用相关的指令,可根据个人喜好进行修改。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98