🚀 LLaMA2 - 13B - Tiefighter
Tiefighter是一個融合模型,它是在一個成熟的現有融合模型基礎上,進一步融合了兩個不同的LoRA模型而得到的。以下是具體的融合步驟:
模型融合步驟
- 以Undi95/Xwin - MLewd - 13B - V0.2為基礎模型,這是一個成熟的融合模型。儘管名字如此,但該模型並沒有很強的NSFW(不適宜公開內容)傾向。
- 應用PocketDoc/Dans - RetroRodeo - 13b LoRA,這是在Skein模型的“Choose your own Adventure”數據集上進行微調得到的。
- 應用此LoRA後,將新模型與PocketDoc/Dans - RetroRodeo - 13b以5%的比例進行融合,以削弱新引入的冒險傾向。
- 將融合後的模型作為新的基礎模型,應用Blackroot/Llama - 2 - 13B - Storywriter - LORA,並重覆上述操作,此次比例為10%。
模型成分
據我們追蹤,該模型包含其上游模型的以下成分:
- Undi95/Xwin - MLewd - 13B - V0.2
- Undi95/ReMM - S - Light
- Undi95/CreativeEngine
- Brouz/Slerpeno
- elinas/chronos - 13b - v2
- jondurbin/airoboros - l2 - 13b - 2.1
- NousResearch/Nous - Hermes - Llama2 - 13b + nRuaif/Kimiko - v2
- CalderaAI/13B - Legerdemain - L2 + lemonilia/limarp - llama2 - v2
- KoboldAI/LLAMA2 - 13B - Holodeck - 1
- NousResearch/Nous - Hermes - 13b
- OpenAssistant/llama2 - 13b - orca - 8k - 3319
- ehartford/WizardLM - 1.0 - Uncensored - Llama2 - 13b
- Henk717/spring - dragon
- The - Face - Of - Goonery/Huginn - v3 - 13b(包含未公開的模型版本,我們假設了可能的版本)
- SuperCOT(未公開版本)
- elinas/chronos - 13b - v2(假設版本)
- NousResearch/Nous - Hermes - Llama2 - 13b
- stabilityai/StableBeluga - 13B(假設版本)
- zattio770/120 - Days - Of - LORA - v2 - 13B
- PygmalionAI/pygmalion - 2 - 13b
- Undi95/Storytelling - v1 - 13B - lora
- TokenBender/sakhi_13B_roleplayer_NSFW_chat_adapter
- nRuaif/Kimiko - v2 - 13B
- The - Face - Of - Goonery/Huginn - 13b - FP16
- “很多不同的模型,如hermes、beluga、airoboros、chronos.. limarp”
- lemonilia/LimaRP - Llama2 - 13B - v3 - EXPERIMENT
- Xwin - LM/Xwin - LM - 13B - V0.2
- PocketDoc/Dans - RetroRodeo - 13b
- Blackroot/Llama - 2 - 13B - Storywriter - LORA
我們可能無法對參與此融合模型的每個LoRA或模型都給予讚譽,但我們要感謝所有上游的創作者,是你們讓這個出色的模型成為可能!感謝你們,AI生態系統才得以蓬勃發展,沒有你們的精心調優,這樣的模型是不可能出現的。
🚀 快速開始
故事寫作
支持傳統方式的常規故事寫作,只需複製粘貼你的故事並繼續創作即可。你還可以選擇在記憶中使用指令或作者註釋來引導故事的方向。
按需生成故事
你可以使用指令(在Alpaca格式中測試過),如“寫一部關於X的小說,使用章節和對話”來按需生成故事。生成的格式可能會因模型開始的方式而有所不同,你可以像前面的例子那樣寫出你想要的內容,或者自己寫出故事的開頭,讓模型遵循你的風格。如果模型生成的內容不符合要求,多嘗試幾次可能會有幫助。
聊天機器人與人設
該模型已在各種聊天形式中進行了測試,測試人員發現通常“少即是多”,模型善於即興發揮。不要用大段詳細的信息淹沒模型,先保持簡單,看看能在多大程度上依靠模型自己理解你的角色。對於這樣的13B模型,複製粘貼大段背景信息並不合適,使用代碼格式的角色設定或描述你想與之交談對象的指令提示會更有效。
例如,你可以在常規聊天模式的記憶中輸入以下內容:
### 指令:
生成一段愛麗絲和亨克之間討論語言模型的對話。
在這段對話中,亨克很興奮地要向愛麗絲介紹Tiefighter。
### 回覆:
由於該模型是多種模型的融合,它應該支持廣泛的指令格式或普通聊天模式。如果你有特別喜歡的格式,可以嘗試一下;否則,我們建議使用常規聊天模式或Alpaca格式。
指令提示
該模型具有多種指令風格的指令模型,在測試模型時,我們使用了Alpaca格式進行測試。如果你更喜歡其他格式,很可能也能正常工作。
在指令過程中,我們觀察到在某些情況下,冒險數據可能會洩露。使用“>”作為用戶命令的前綴來解決這個問題可能值得一試,但這可能會導致更強的虛構傾向。
請記住,雖然該模型可以用作事實性指令模型,但它的重點是虛構內容。模型提供的信息可能是編造的。
冒險與冒險遊戲
該模型包含一個在與KoboldAI Skein模型相同的冒險數據集上訓練的LoRA。進行冒險活動時,最好使用簡短的世界介紹和目標說明,並使用“>”作為用戶命令的前綴(KoboldAI的冒險模式)。
模型可能不會立即理解你想做的事情,不會馬上進入冒險模式。只需手動修正輸出,去除多餘的對話或其他不良行為,然後繼續以適當的模式提交你的行動。模型應該能很快適應這種風格,並在3輪交互內正確遵循這種格式。
發現了很酷的東西並想與我們交流?
加入我們的社區:https://koboldai.org/discord !
📄 許可證
本模型使用的許可證為:llama2。