🚀 13B-Thorns [基於指令的LLaMAv2 - 13B集成合並模型 | Alpaca格式]
13B - Thorns是一個基於指令的LLaMAv2 - 13B集成合並模型,採用Alpaca格式。該模型旨在結合多個模型的優勢,提供更強大和多樣化的語言處理能力。
⚠️ 重要提示
此模型未經過審查,且未對毒性進行全面測試。這是一個僅供負責任使用的研究成果,可能會生成冒犯性和誤導性內容。請勿將此研究成果生成的語言視為任何領域的建議或事實。CalderaAI嚴格不允許在研究或娛樂領域之外使用此版本。
🚀 快速開始
模型組成
13B - Thorns - l2採用了一種名為球面線性插值(Spherical Linear Interpolation,SLERP)的新合併方法。通過將數據作為球面向量存儲概念進行合併,一對組合模型在每個模型特有的特徵空間之間實現了更平滑的過渡,從而更有效地融合了兩個模型的獨特優勢。
球面線性插值實現
我們在大語言模型合併中對球面線性插值的實現:[https://github.com/Digitous/LLM - SLERP - Merge](https://github.com/Digitous/LLM - SLERP - Merge)
設計思路
Thorns的設計基於有目的的分段概念,具體分為以下兩個部分:
🔧 邏輯分段(MK1)
精心挑選並審查了經過微調的父模型,考慮了數據集、性能、最寬鬆的審查限制以及社區對連貫性和實用性的看法。最終決定選擇四個模型,兩兩合併,然後將這些合併後的結果再次合併,形成一個四重合並的邏輯集群。所有四個模型均使用SLERP方法進行合併。
✨ 創造力和想象力分段(MK1)
最初採用了有缺陷的方法(關於低秩自適應調整,LoRAs)。後來決定,創造力和想象力分段可以簡單地由一個模型組成,特別是當該模型的數據集設計、標籤、訓練質量和過往表現都非常出色時。KoboldAI的Holodeck模型是多年收集、整理、標記、去重和清理數據的成果。僅Holodeck模型就足以滿足我們視為模型集成“潛意識”部分的需求,但我們還對其應用了LIMA RP PEFT以增加多樣性。然而,我們在這一步做得有些過頭,決定在該分段的結果上再添加兩個低秩自適應調整(LoRAs),即Kimiko和Janine,以進一步擴展Holodeck模型。但這一舉措效果不佳,當將該想象力分段與邏輯分段進行SLERP合併時,結果是一個混亂的輸出,雖然能遵循指令,但缺乏邏輯連貫性,就像孩子隨意塗鴉一樣。這個組合模型原本命名為13B - Astronomicon,但由於結果不盡如人意,我們放棄了這個名稱,而Thorns模型正是Astronomicon實驗的副產品。
📚 最終設計(TL;DR部分)
在與頂級模型開發團隊多次討論後,我們起草了Thorns MK2,並迅速投入生產。實際上,我只是按照以下方式重新進行了合併:
- 模型合併集成關鍵 -
{} = SLERP合併 | [] = PEFT合併 | () = 組合模型
({({NousHermes + Chronos}[Kimiko])+({Platupus + AiroborosM2.0}[Janine])}{Holodeck[LIMA RP]})
🔍 研究發現
- 策略性地將低秩自適應調整(LoRAs)融合到最能從中受益的模型中,然後將結果合併到集成中,效果非常顯著。
- 將完全相同的低秩自適應調整(LoRAs)疊加到一個模型上,然後將其合併到集成中,會產生嘈雜的無用結果。
📄 所使用的語言模型和低秩自適應調整(LoRAs)致謝
所有使用的模型和適配器均基於LLaMAv2 - 13B。
模型
- Nous - Hermes
- Chronos
- Platypus
- Airoboros
- Holodeck
適配器
同時,感謝Meta開發了LLaMAv2,並允許廣大研究社區從他們的傑出工作中受益。每個模型和低秩自適應調整(LoRA)都是精心挑選的,我們感謝社區中每一位開發者的傑出工作。