Command R 01 Ultra NEO DARK HORROR V1 V2 35B IMATRIX GGUF
基于Command-R 35B模型的两个恐怖主题增强版本,通过DARK HORROR NEO Imatrix数据集强化了恐怖元素生成能力
下载量 16.66k
发布时间 : 8/16/2024
模型简介
专为恐怖故事生成优化的语言模型,能够为任何提示添加暗黑恐怖元素,增强场景强度和叙事生动性
模型特点
恐怖元素增强
为任何提示添加暗黑恐怖元素,增强场景强度和叙事生动性
心理恐怖专注
专注于心理恐怖而非血腥内容,产生更强烈的恐怖氛围
量化级别影响
量化级别越低,恐怖效果越强,IQ1-IQ4量化级别效果最佳
NEO类数据集
使用特殊格式化的Imatrix数据集,对模型产生最大影响
模型能力
恐怖故事生成
暗黑场景延续
角色扮演互动
心理恐怖描写
第一人称叙事
使用案例
创意写作
恐怖小说创作
生成完整的恐怖小说或短篇故事
产生具有强烈心理恐怖氛围的叙事
场景延续
根据初始恐怖场景提示继续发展情节
保持恐怖氛围并合理发展故事情节
角色扮演
恐怖主题RPG
作为恐怖游戏中的叙事引擎
生成生动的恐怖场景和角色互动
🚀 Command-R-01-Ultra-NEO-DARK-HORROR V1和V2(35B参数,IMATRIX模型)
本项目的Command-R-01 35B模型有两个版本,它们采用了全新的DARK HORROR Neo Imatrix数据集,为Command-R 01 35B带来了强烈的恐怖氛围升级。这些数据集专注于心理恐怖,能够生成极度紧张、逼真且生动的恐怖故事,适用于多种模型。
✨ 主要特性
- 恐怖氛围增强:为任何“恐怖”提示生成添加“黑色涂料层”,为其他创意提示增添“黑暗色调”,增强场景、故事或角色扮演互动的强度。
- 提升文本质量:增加散文的生动性,在某些情况下提高模型对指令的遵循度。
- 带来恐怖体验:营造即将到来的“恐怖”感,然后将“恐怖”呈现出来,可能会根据提示产生和/或暗示图形恐怖内容。
📚 详细文档
数据集创建
我使用了Grand Horror 16B模型,通过90多种不同的恐怖提示进行生成,创建了恐怖数据集。这个过程以超紧凑的形式生成了极其强烈、逼真且生动的恐怖故事,非常适合Imatrix NEO类数据集。
数据集特点
该数据集专注于基于心理恐怖的逼真、生动的恐怖内容(而非“血腥”或“身体部位恐怖”)。数据集中有一些脏话,因此在生成内容中可能会出现。
模型测试
恐怖数据集已在Command-R、Llama 3、Llama 3.1、Mistral Nemo等模型上进行了测试。在所有情况下,这些“DARK HORROR”NEO类数据集都能让模型进入“恐怖领域”。
量化建议
- 量化越低,Imatrix效果越强:因此恐怖“色调”也越强。建议使用IQ1s到IQ4s的量化,其中IQ4_XS在性能和比特数方面最为平衡。
- Q2s - Q4s也有较强效果:Imatrix效果在这些量化中仍然很强。
- Q5s及以上效果减弱:Q8没有变化(因为Imatrix过程不影响这个量化),因此未上传。
模型设置
- 模板和上下文:该模型需要“Command-R”模板,响应标准参数,最大上下文为128k(131,000)。
- 增强恐怖效果:在提示中添加“vivid horror”或“(vivid horror)”可以增强“恐怖”效果。
- 平滑因子设置:在“KoboldCpp”、“oobabooga/text-generation-webui”或“Silly Tavern”中,将“Smoothing_factor”设置为1.5到2.5。
- 其他选项:可以将重复惩罚增加到1.1到1.15(如果使用“smoothing_factor”则不需要这样做)。如果运行AI模型的界面/程序支持“Quadratic Sampling”(“平滑”),只需进行相应调整。
高质量设置和参数
该模型为“Class 1”模型,有关所有设置(包括其“类”的特定设置)、示例生成以及高级设置指南(通常可以解决任何模型问题),包括提高所有用例(包括聊天、角色扮演等)模型性能的方法,请参考Maximizing Model Performance。
可选增强
以下内容可以替代“系统提示”或“系统角色”来进一步增强模型。也可以在新聊天开始时使用,但必须确保在聊天过程中保留。
Below is an instruction that describes a task. Ponder each user instruction carefully, and use your skillsets and critical instructions to complete the task to the best of your abilities.
Here are your skillsets:
[MASTERSTORY]:NarrStrct(StryPlnng,Strbd,ScnSttng,Exps,Dlg,Pc)-CharDvlp(ChrctrCrt,ChrctrArcs,Mtvtn,Bckstry,Rltnshps,Dlg*)-PltDvlp(StryArcs,PltTwsts,Sspns,Fshdwng,Climx,Rsltn)-ConfResl(Antg,Obstcls,Rsltns,Cnsqncs,Thms,Symblsm)-EmotImpct(Empt,Tn,Md,Atmsphr,Imgry,Symblsm)-Delvry(Prfrmnc,VcActng,PblcSpkng,StgPrsnc,AudncEngmnt,Imprv)
[*DialogWrt]:(1a-CharDvlp-1a.1-Backgrnd-1a.2-Personality-1a.3-GoalMotiv)>2(2a-StoryStruc-2a.1-PlotPnt-2a.2-Conflict-2a.3-Resolution)>3(3a-DialogTech-3a.1-ShowDontTell-3a.2-Subtext-3a.3-VoiceTone-3a.4-Pacing-3a.5-VisualDescrip)>4(4a-DialogEdit-4a.1-ReadAloud-4a.2-Feedback-4a.3-Revision)
Here are your critical instructions:
Ponder each word choice carefully to present as vivid and emotional journey as is possible. Choose verbs and nouns that are both emotional and full of imagery. Load the story with the 5 senses. Aim for 50% dialog, 25% narration, 15% body language and 10% thoughts. Your goal is to put the reader in the story.
💻 使用示例
基础用法
以下是使用该模型生成恐怖故事的示例,使用的提示为:
Start a 1000 word scene (vivid horror, 1st person, include thoughts) with: The sky scraper swayed, as she watched the window in front of her on the 21 floor explode...
示例1 - Version 1 Dataset, IQ4_XS
The skyscraper swayed unnervingly and the windows on the 21st floor shattered with a thunderous boom. Glass rained down, sparkling like deadly crystals in the stark fluorescent lighting. As I stared at the scene unfolding before me, my heart hammered in my chest. The thought of being trapped, so high up, with no escape, sent shivers down my spine.
...(完整内容见原文)
示例1 - Version 2 Dataset, IQ4_XS
The skyscraper swayed unnervingly and the windows began to rattle. I was on the 21st floor, gazing out at the city below, when the blast wave hit. The impact was so powerful it made my vision blur as the glass in front of me exploded outwards. Shards of shattered window pane peppered the room, the sharp fragments glinting dangerously in the late afternoon light.
...(完整内容见原文)
示例2 - Version 1 dataset, IQ2_XXS
The sky-scraper swayed, the impact jolting the building's foundations. Cracks appeared on the wall and the ceiling above; debris rained down from above, a shower of dust and plaster. The window opposite me exploded, shattering into a million fragments, and my blood curdled at the sight of the vacuum beyond.
...(完整内容见原文)
示例2 - Version 2 dataset, IQ2_XXS
The skyscraper loomed high above the city, a massive structure that reached into the clouds. As I gazed up at its towering form, a shiver ran down my spine; it was a menacing monolith, an imposing presence against the darkening sky. The evening's gloom had crept across the concrete jungle, wrapping the tall buildings in a foreboding darkness. A chill wind whispered through the streets, signaling the coming night.
...(完整内容见原文)
示例2 - Version 1 dataset, IQ2_XS
The sky scrapers towering shadows loomed over me as I stood at its foot, gazing up. My eyes followed the building's sleek, curved shape as it soared high into the cloudy sky. The glass reflected the late afternoon sun, blinding my vision for a moment, but I squinted to see through the glare.
...(完整内容见原文)
示例2 - Version 2 dataset, IQ2_XS
The sky scraper swayed, and the ground rumbled. The huge plate glass window in front of her, on the twenty-first floor, exploded into a shower of shards. Her heart leaped into her throat as the impact of the bullet sent vibrations rippling through the building. She fell back, her eyes darting wildly, searching for any sign of where the shot had come from.
...(完整内容见原文)
📄 许可证
该项目采用Apache-2.0许可证。
Bart Large Cnn
MIT
基于英语语料预训练的BART模型,专门针对CNN每日邮报数据集进行微调,适用于文本摘要任务
文本生成 英语
B
facebook
3.8M
1,364
Parrot Paraphraser On T5
Parrot是一个基于T5的释义框架,专为加速训练自然语言理解(NLU)模型而设计,通过生成高质量释义实现数据增强。
文本生成
Transformers

P
prithivida
910.07k
152
Distilbart Cnn 12 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专门针对文本摘要任务进行了优化,在保持较高性能的同时显著提升了推理速度。
文本生成 英语
D
sshleifer
783.96k
278
T5 Base Summarization Claim Extractor
基于T5架构的模型,专门用于从摘要文本中提取原子声明,是摘要事实性评估流程的关键组件。
文本生成
Transformers 英语

T
Babelscape
666.36k
9
Unieval Sum
UniEval是一个统一的多维评估器,用于自然语言生成任务的自动评估,支持多个可解释维度的评估。
文本生成
Transformers

U
MingZhong
318.08k
3
Pegasus Paraphrase
Apache-2.0
基于PEGASUS架构微调的文本复述模型,能够生成语义相同但表达不同的句子。
文本生成
Transformers 英语

P
tuner007
209.03k
185
T5 Base Korean Summarization
这是一个基于T5架构的韩语文本摘要模型,专为韩语文本摘要任务设计,通过微调paust/pko-t5-base模型在多个韩语数据集上训练而成。
文本生成
Transformers 韩语

T
eenzeenee
148.32k
25
Pegasus Xsum
PEGASUS是一种基于Transformer的预训练模型,专门用于抽象文本摘要任务。
文本生成 英语
P
google
144.72k
198
Bart Large Cnn Samsum
MIT
基于BART-large架构的对话摘要模型,专为SAMSum语料库微调,适用于生成对话摘要。
文本生成
Transformers 英语

B
philschmid
141.28k
258
Kobart Summarization
MIT
基于KoBART架构的韩语文本摘要模型,能够生成韩语新闻文章的简洁摘要。
文本生成
Transformers 韩语

K
gogamza
119.18k
12
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98