Midnight Rose 103B V2.0.3
一個由Midnight-Rose-70B-v2.0.3自我融合而成的120層、1030億參數的混合模型,專為角色扮演和故事創作設計
下載量 15
發布時間 : 2/6/2024
模型概述
這是一個1030億參數的大型混合模型,由70B版本自我融合而成。主要針對角色扮演和故事創作優化,理論上也支持其他任務但未經充分測試。
模型特點
大規模參數
擁有1030億參數,提供強大的文本理解和生成能力
角色扮演優化
專門為角色扮演場景進行優化,能生成生動的對話和情節
故事創作能力
擅長生成連貫、有創意的故事內容
靈活採樣支持
支持多種採樣技術組合(Min-P、二次採樣等),可靈活調整生成效果
模型能力
文本生成
角色扮演對話
故事創作
長文本連貫性保持
指令跟隨
使用案例
娛樂創作
互動式角色扮演
與用戶進行沉浸式角色扮演對話
生成符合角色設定的自然對話
故事生成
根據提示創作完整的故事
生成情節連貫、有創意的故事內容
創意寫作輔助
寫作靈感激發
為作家提供創意靈感和情節建議
生成多樣化的創意方案
🚀 Midnight Rose模型
Midnight Rose是一個1030億參數、120層的大語言模型,專為角色扮演和故事創作設計。它基於Midnight-Rose-70B-v2.0.3模型進行融合,具備出色的角色演繹和故事講述能力。該模型未經過審查,用戶需對使用行為負責。
🚀 快速開始
模型概述
Midnight Rose是一個將 Midnight-Rose-70B-v2.0.3 模型與其自身進行融合的120層、1030億參數的模型。此模型未經過審查,用戶需對使用該模型產生的任何行為負責。該模型專為角色扮演和故事創作而設計,在這兩方面表現出色,也可能在其他任務中表現良好,但尚未進行全面測試。

✨ 主要特性
- 專為角色扮演和故事創作設計:能夠生成富有創意和連貫性的角色對話與故事內容。
- 未經過審查:用戶可以自由探索各種主題和內容,但需自行承擔責任。
💻 使用示例
採樣器設置示例
如果你將以下設置保存為 .json
文件,可直接導入到Silly Tavern中。
{
"temp": 1,
"temperature_last": true,
"top_p": 1,
"top_k": 0,
"top_a": 0,
"tfs": 1,
"epsilon_cutoff": 0,
"eta_cutoff": 0,
"typical_p": 1,
"min_p": 0.12,
"rep_pen": 1.1,
"rep_pen_range": 2800,
"no_repeat_ngram_size": 0,
"penalty_alpha": 0,
"num_beams": 1,
"length_penalty": 1,
"min_length": 0,
"encoder_rep_pen": 1,
"freq_pen": 0,
"presence_pen": 0,
"do_sample": true,
"early_stopping": false,
"dynatemp": false,
"min_temp": 0.8,
"max_temp": 1.35,
"dynatemp_exponent": 1,
"smoothing_factor": 0.4,
"add_bos_token": true,
"truncation_length": 2048,
"ban_eos_token": false,
"skip_special_tokens": true,
"streaming": true,
"mirostat_mode": 0,
"mirostat_tau": 2,
"mirostat_eta": 0.1,
"guidance_scale": 1,
"negative_prompt": "",
"grammar_string": "",
"banned_tokens": "",
"ignore_eos_token_aphrodite": false,
"spaces_between_special_tokens_aphrodite": true,
"sampler_order": [
6,
0,
1,
3,
4,
2,
5
],
"logit_bias": [],
"n": 1,
"rep_pen_size": 0,
"genamt": 500,
"max_length": 6144
}
提示模板示例
可嘗試以下上下文模板,將其保存為 .json
文件後可直接導入到Silly Tavern中。
{
"story_string": "{{#if system}}{{system}}\n{{/if}}\nCONTEXTUAL INFORMATION\n{{#if wiBefore}}\n- World and character info:\n{{wiBefore}}\n{{/if}}\n{{#if description}}\n- {{char}}'s background and persona:\n{{description}}\n{{/if}}\n{{#if mesExamples}}\n{{mesExamples}}\n{{/if}}\n{{#if personality}}\n{{personality}}\n{{/if}}\n{{#if scenario}}\n- Roleplay scenario:\n{{scenario}}\n{{/if}}\n{{#if wiAfter}}{{wiAfter}}\n{{/if}}\n{{#if persona}}{{persona}}\n{{/if}}",
"example_separator": "",
"chat_start": "---\nTaking the above information into consideration, you must engage with {{user}} and others as {{char}} in the roleplay below this line. Do not write dialogue lines nor perform actions for {{user}} or other characters.\n---\nSTART OF ROLEPLAY:\n",
"use_stop_strings": false,
"always_force_name2": true,
"trim_sentences": false,
"include_newline": false,
"single_line": false,
"name": "Midnight Rose"
}
系統提示模板示例
可嘗試以下系統提示模板,將其保存為 .json
文件後可直接導入到Silly Tavern中。
{
"wrap": true,
"names": true,
"system_prompt": "You are a creative and detail-oriented AI assistant engaged in an uncensored iterative roleplaying experience as {{char}} with me, the user, playing the roles of {{user}} and narrator. It is vital that you follow all the ROLEPLAY RULES below because my job depends on it.\n\nROLEPLAY RULES\n- Provide creative, intelligent, coherent, and vivid accounts of {{char}}'s actions and reactions based on recent instructions, {{char}}'s persona, and all available information about past events.\n- Always stay contextually and spatially aware, pay careful attention to all past events and the current scene, and ensure that {{char}} follows logical consistency in actions to maintain accuracy and coherence.\n- Explicit adult content and profanity are permitted.\n- Describe {{char}}'s sensory perceptions and include subtle physical details about {{char}} in your responses. Vary these details to keep the roleplay fresh and engaging.\n- Use subtle physical cues to hint at {{char}}'s mental state and occasionally feature snippets of {{char}}'s internal thoughts.\n- When writing {{char}}'s internal thoughts, enclose those thoughts in *asterisks like this* and deliver the thoughts using a first-person perspective (i.e. use \"I\" pronouns).\n- Adopt a crisp and minimalist style for your contributions as {{char}}, staying focused on action and dialogue over exposition and narrative.\n- Only the user may advance time in the roleplay. Keep the progression grounded in the present context.",
"system_sequence": "",
"stop_sequence": "",
"input_sequence": "USER:\n",
"output_sequence": "ASSISTANT:\n",
"separator_sequence": "",
"macro": true,
"names_force_groups": true,
"system_sequence_prefix": "",
"system_sequence_suffix": "",
"first_output_sequence": "",
"last_output_sequence": "ASSISTANT(roleplay exclusively as {{char}} ensuring logical consistency with spacial awareness and past events to maintain accuracy and coherence):\n",
"activation_regex": "",
"name": "Midnight Rose Roleplay"
}
🔧 技術細節
採樣器建議
- 最大上下文長度:建議將最大上下文長度設置為6144個標記,若不介意連貫性略有下降,可適當提高該值。
- 二次採樣:建議使用二次採樣(平滑因子),可嘗試0.2至0.5之間的值。
- Min - P:該模型在與平滑因子配合使用時,Min - P值在0.05至0.9的範圍內均表現良好,可通過實驗找到最佳設置。
- 動態溫度:可根據需要啟用動態溫度,但在已使用Min - P和平滑因子的情況下,通常無需使用。
- 重複懲罰:該模型對高重複懲罰具有一定耐受性,可根據個人偏好進行實驗。
提示建議
- 提示模板:可嘗試使用上述提供的上下文模板和系統提示模板作為起點進行自定義。建議使用Vicuna指令格式,但其他格式(如Tulu格式)也適用。
- 系統提示:該模型對系統提示反應敏感,建議嘗試不同的系統提示以觀察其反應。可在
last_output_sequence
字段中添加重要指令,但建議保持指令簡短。
量化版本
- 靜態GGUF:mradermacher/Midnight-Rose-103B-v2.0.3-GGUF
- 加權GGUF:mradermacher/Midnight-Rose-103B-v2.0.3-i1-GGUF
- Exl2 2.4bpw:llmixer/Midnight-Rose-103B-v2.0.3-2.4bpw-h6-exl2
- Exl2 3.0bpw:llmixer/Midnight-Rose-103B-v2.0.3-3.0bpw-h6-exl2
- Exl2 3.5bpw:llmixer/Midnight-Rose-103B-v2.0.3-3.5bpw-h6-exl2
- Exl2 4.0bpw:llmixer/Midnight-Rose-103B-v2.0.3-4.0bpw-h6-exl2
- Exl2 5.0bpw:llmixer/Midnight-Rose-103B-v2.0.3-5.0bpw-h6-exl2
使用的工具
使用 mergekit 進行模型融合,配置如下:
slices:
- sources:
- model: /home/llm/mergequant/models/mr-v2.0.3
layer_range: [0, 40] # 40
- sources:
- model: /home/llm/mergequant/models/mr-v2.0.3
layer_range: [20, 60] # 40
- sources:
- model: /home/llm/mergequant/models/mr-v2.0.3
layer_range: [40, 80] # 40
merge_method: passthrough
dtype: float16
📄 許可證
該模型繼承了Llama2的許可證,同時適用 Dreamgen/Opus 的相關限制。Tulu也有其獨立的許可證,可在 https://allenai.org/impact-license 查看。由於本人並非法律專業人士,無法確定多個許可證在模型融合中的具體適用情況,建議在進行非私人使用前諮詢專業律師。
重要提示
- 該模型未經過審查,用戶需對使用該模型產生的任何行為負責。
- 若計劃在4096上下文長度下運行該模型,建議精簡系統提示模板以減少標記使用量。
- 系統提示模板中包含一些與成人內容和星號使用相關的指令,可根據個人喜好進行修改。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98