🚀 13B-Thorns [基于指令的LLaMAv2 - 13B集成合并模型 | Alpaca格式]
13B - Thorns是一个基于指令的LLaMAv2 - 13B集成合并模型,采用Alpaca格式。该模型旨在结合多个模型的优势,提供更强大和多样化的语言处理能力。
⚠️ 重要提示
此模型未经过审查,且未对毒性进行全面测试。这是一个仅供负责任使用的研究成果,可能会生成冒犯性和误导性内容。请勿将此研究成果生成的语言视为任何领域的建议或事实。CalderaAI严格不允许在研究或娱乐领域之外使用此版本。
🚀 快速开始
模型组成
13B - Thorns - l2采用了一种名为球面线性插值(Spherical Linear Interpolation,SLERP)的新合并方法。通过将数据作为球面向量存储概念进行合并,一对组合模型在每个模型特有的特征空间之间实现了更平滑的过渡,从而更有效地融合了两个模型的独特优势。
球面线性插值实现
我们在大语言模型合并中对球面线性插值的实现:[https://github.com/Digitous/LLM - SLERP - Merge](https://github.com/Digitous/LLM - SLERP - Merge)
设计思路
Thorns的设计基于有目的的分段概念,具体分为以下两个部分:
🔧 逻辑分段(MK1)
精心挑选并审查了经过微调的父模型,考虑了数据集、性能、最宽松的审查限制以及社区对连贯性和实用性的看法。最终决定选择四个模型,两两合并,然后将这些合并后的结果再次合并,形成一个四重合并的逻辑集群。所有四个模型均使用SLERP方法进行合并。
✨ 创造力和想象力分段(MK1)
最初采用了有缺陷的方法(关于低秩自适应调整,LoRAs)。后来决定,创造力和想象力分段可以简单地由一个模型组成,特别是当该模型的数据集设计、标签、训练质量和过往表现都非常出色时。KoboldAI的Holodeck模型是多年收集、整理、标记、去重和清理数据的成果。仅Holodeck模型就足以满足我们视为模型集成“潜意识”部分的需求,但我们还对其应用了LIMA RP PEFT以增加多样性。然而,我们在这一步做得有些过头,决定在该分段的结果上再添加两个低秩自适应调整(LoRAs),即Kimiko和Janine,以进一步扩展Holodeck模型。但这一举措效果不佳,当将该想象力分段与逻辑分段进行SLERP合并时,结果是一个混乱的输出,虽然能遵循指令,但缺乏逻辑连贯性,就像孩子随意涂鸦一样。这个组合模型原本命名为13B - Astronomicon,但由于结果不尽如人意,我们放弃了这个名称,而Thorns模型正是Astronomicon实验的副产品。
📚 最终设计(TL;DR部分)
在与顶级模型开发团队多次讨论后,我们起草了Thorns MK2,并迅速投入生产。实际上,我只是按照以下方式重新进行了合并:
- 模型合并集成关键 -
{} = SLERP合并 | [] = PEFT合并 | () = 组合模型
({({NousHermes + Chronos}[Kimiko])+({Platupus + AiroborosM2.0}[Janine])}{Holodeck[LIMA RP]})
🔍 研究发现
- 策略性地将低秩自适应调整(LoRAs)融合到最能从中受益的模型中,然后将结果合并到集成中,效果非常显著。
- 将完全相同的低秩自适应调整(LoRAs)叠加到一个模型上,然后将其合并到集成中,会产生嘈杂的无用结果。
📄 所使用的语言模型和低秩自适应调整(LoRAs)致谢
所有使用的模型和适配器均基于LLaMAv2 - 13B。
模型
- Nous - Hermes
- Chronos
- Platypus
- Airoboros
- Holodeck
适配器
同时,感谢Meta开发了LLaMAv2,并允许广大研究社区从他们的杰出工作中受益。每个模型和低秩自适应调整(LoRA)都是精心挑选的,我们感谢社区中每一位开发者的杰出工作。