🚀 LLaMA2 - 13B - TiefighterLR
LLaMA2 - 13B - TiefighterLR是一个融合模型,它是在一个成熟的现有融合模型基础上,进一步融合了两个不同的LoRA而得到的。这个LR版本减少了“Rodeo”的影响,从原来的5%融合比例降至3%,从而降低了其二人称冒险倾向。测试者发现,该模型能更好地理解用户的角色和指令提示,不过会牺牲一些自身的写作倾向和风格。
🚀 快速开始
本模型可用于多种场景,如故事创作、聊天机器人、指令提示以及冒险游戏等。使用时,可根据不同需求选择合适的使用方式。
✨ 主要特性
- 减少冒险倾向:通过调整融合比例,降低了模型的二人称冒险倾向,使其能更好地理解用户的角色和指令提示。
- 支持多种格式:作为多种模型的融合,它支持广泛的指令格式,或普通聊天模式。
- 聚焦虚构创作:虽然也可作为事实性指令模型使用,但重点在于虚构创作,模型提供的信息可能是虚构的。
📚 详细文档
模型融合配方
为实现上述特性,采用了以下融合配方:
- 以基础模型Undi95/Xwin - MLewd - 13B - V0.2 作为起始点,这是一个成熟的融合模型,与名称不同,该模型并无强烈的NSFW倾向。
- 应用PocketDoc/Dans - RetroRodeo - 13b LoRA,这是在Skein模型的“Choose your own Adventure”数据集上进行微调的结果。
- 将原始模型与新创建的PocketDoc/Dans - RetroRodeo - 13b融合模型以3%的比例进行融合,以削弱新引入的冒险倾向。
- 将得到的融合模型作为新的基础模型,应用Blackroot/Llama - 2 - 13B - Storywriter - LORA,并再次以10%的比例进行融合。
模型成分
据我们所能追踪到的,该模型包含其上游模型的以下成分:
- Undi95/Xwin - MLewd - 13B - V0.2
- Undi95/ReMM - S - Light (base/private)
- Undi95/CreativeEngine
- Brouz/Slerpeno
- elinas/chronos - 13b - v2
- jondurbin/airoboros - l2 - 13b - 2.1
- NousResearch/Nous - Hermes - Llama2 - 13b + nRuaif/Kimiko - v2 LoRA
- CalderaAI/13B - Legerdemain - L2 + lemonilia/limarp - llama2 - v2 LoRA
- KoboldAI/LLAMA2 - 13B - Holodeck - 1
- NousResearch/Nous - Hermes - 13b
- OpenAssistant/llama2 - 13b - orca - 8k - 3319
- ehartford/WizardLM - 1.0 - Uncensored - Llama2 - 13b
- Henk717/spring - dragon
- The - Face - Of - Goonery/Huginn - v3 - 13b
- zattio770/120 - Days - of - LoRA - v2 - 13B
- PygmalionAI/pygmalion - 2 - 13b
- Undi95/StoryTelling
- TokenBender/sakhi_13B_roleplayer_NSFW_chat_adapter
- nRuaif/Kimiko - v2 - 13B
- The - Face - Of - Goonery/Huginn - 13b - FP16
- lemonilia/LimaRP - Llama2 - 13B - v3 - EXPERIMENT
- Xwin - LM/Xwin - LM - 13B - V0.2
- PocketDoc/Dans - RetroRodeo - 13b
- Blackroot/Llama - 2 - 13B - Storywriter - LoRA
💻 使用示例
故事创作
续写故事
支持以传统方式进行常规故事创作,只需复制粘贴已有故事内容,即可继续编写。也可选择在记忆中使用指令或作者注释来引导故事的发展方向。
按需生成故事
若要按需生成故事,可使用指令(在Alpaca格式中测试过),例如“Write a novel about X, use chapters and dialogue”,这将生成一个故事。生成的格式可能因模型选择的开头方式而异,你可以按照前面的示例写出你想要的内容,或者自己写出故事的开头,让模型遵循你的风格。若模型生成的内容不符合要求,多尝试几次可能会有所帮助。
聊天机器人和角色设定
与原始的Tiefighter模型不同,只要角色卡中不包含大量的第二人称写作或第二人称介绍(“你”),该模型在处理现有角色卡方面表现更佳。将“>”设置为自定义停止序列有助于纠正潜在的错误,同时关闭多行回复功能也有帮助。你还可以使用指令来创建角色。
例如,在常规聊天模式下,你可以在记忆中输入以下内容:
### Instruction:
Generate a conversation between Alice and Henk where they discuss language models.
In this conversation Henk is excited to teach Alice about Tiefighter.
### Response:
由于该模型是多种模型的融合,它应该支持广泛的指令格式或普通聊天模式。如果你有特别喜欢的格式,可以尝试一下;否则,我们建议使用常规聊天模式或Alpaca格式。
指令提示
该模型融合了多种指令模型,支持多种指令风格。在测试模型时,我们使用了Alpaca格式进行测试。如果你更喜欢其他格式,很可能也能正常工作。
在指令提示过程中,我们发现有时冒险数据可能会泄露。使用“>”作为用户命令的前缀进行实验可能有助于解决这个问题,但这可能会导致更强的虚构倾向。
请记住,虽然该模型可以用作事实性指令模型,但其重点在于虚构创作。模型提供的信息可能是虚构的。
冒险和冒险游戏
该模型包含一个在与KoboldAI Skein模型相同的冒险数据集上训练的LoRA。进行冒险活动时,最好先对世界和目标进行简要介绍,并使用“>”作为用户命令的前缀(KoboldAI的冒险模式)。
模型可能不会立即理解你的意图,不会马上进入冒险模式。此时,只需手动修正输出内容,去除多余的对话或其他不良行为,然后继续以适当的模式提交你的操作。模型应该能很快适应这种风格,并在三轮交互内正确遵循该格式。
📄 许可证
本模型使用的许可证为llama2。
发现了很酷的东西并想与我们交流?
加入我们的社区:https://koboldai.org/discord !
本模型的实现离不开以下贡献者的出色工作:
Undi95、PocketDoc、Blackroot、Brouz、The Face of Goonery、zattio770、PygmalionAI、TokenBender、nRuaif、lemonilia和Xwin - LM。