🚀 The-True-Abomination-24B
這是一個使用 mergekit 創建的預訓練語言模型融合體。它旨在儘可能兼容更多的 SillyTavern 功能和擴展,同時在角色扮演場景中也能有出色表現。
🚀 快速開始
本模型是使用 mergekit 對多個預訓練語言模型進行融合得到的。以下是關於該模型的詳細信息。
✨ 主要特性
- 與眾多 SillyTavern 功能和擴展兼容,能很好地處理角色扮演任務。
- 雖然推理能力並非完美,但在傳統推理(狀態塊/思維框 CoT)方面有一定提升。
📚 詳細文檔
🔍 融合詳情
描述
本模型的融合思路與 Casual-Autopsy/L3-Super-Nova-RP-8B 一致:儘可能兼容更多的 SillyTavern 功能和擴展,同時在角色扮演中也能有良好表現。推理能力雖不完美,但能顯著提升模型在傳統推理(狀態塊/思維框 CoT)方面的能力(說實話,我個人更喜歡傳統推理,因為它在我看來更不容易破壞沉浸感)。建議將最大推理提示設置為 3 或更多,和/或注入 CoT 格式提示。
融合方法
本模型使用了 SCE、Della 和 CABS 融合方法,以 TheDrummer/Cydonia-24B-v2 為基礎模型進行融合。
融合模型
以下是參與融合的模型:
配置
以下是用於生成此模型的 YAML 配置:
Gaslit-Safeword
models:
- model: TheDrummer/Cydonia-24B-v2
- model: ReadyArt/Forgotten-Safeword-24B-v4.0
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
- model: ReadyArt/Gaslit-Transgression-24B-v1.0
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
merge_method: della
base_model: TheDrummer/Cydonia-24B-v2
parameters:
normalize: true
dtype: bfloat16
Omega-Duo
models:
- model: TheDrummer/Cydonia-24B-v2
- model: ReadyArt/The-Omega-Directive-M-24B-v1.1
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
- model: ReadyArt/Omega-Darker_The-Final-Directive-24B
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
merge_method: della
base_model: TheDrummer/Cydonia-24B-v2
parameters:
normalize: true
dtype: bfloat16
SCE-Abomination
models:
- model: TheDrummer/Cydonia-24B-v2
- model: Mawdistical/Mawdistic-NightLife-24b
- model: Gaslit-Safeword
- model: Omega-Duo
merge_method: sce
base_model: TheDrummer/Cydonia-24B-v2
parameters:
select_topk: 0.8
dtype: bfloat16
UNC-Reasoning
models:
- model: SCE-Abomination
- model: Undi95/MistralThinker-v1.1
parameters:
weight: 0.6
n_val: 16
m_val: 32
- model: cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition
parameters:
weight: 0.4
n_val: 11
m_val: 33
merge_method: cabs
default_n_val: 8
default_m_val: 32
pruning_order:
- Undi95/MistralThinker-v1.1
- cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition
base_model: SCE-Abomination
dtype: bfloat16
INT-Multitasks
models:
- model: SCE-Abomination
- model: AlexBefest/CardProjector-24B-v3
parameters:
weight: 0.6
n_val: 16
m_val: 32
- model: arcee-ai/Arcee-Blitz
parameters:
weight: 0.4
n_val: 11
m_val: 33
merge_method: cabs
default_n_val: 8
default_m_val: 32
pruning_order:
- AlexBefest/CardProjector-24B-v3
- arcee-ai/Arcee-Blitz
base_model: SCE-Abomination
dtype: bfloat16
The-True-Abomination-24B
models:
- model: SCE-Abomination
- model: TroyDoesAI/BlackSheep-24B
- model: UNC-Reasoning
- model: INT-Multitasks
merge_method: sce
base_model: SCE-Abomination
parameters:
select_topk: 0.45
dtype: bfloat16
📄 許可證
文檔中未提及許可證相關信息。
🔧 技術細節
模型信息
屬性 |
詳情 |
基礎模型 |
TheDrummer/Cydonia-24B-v2、ReadyArt/Gaslit-Transgression-24B-v1.0 等多個模型 |
庫名稱 |
transformers |
標籤 |
mergekit、merge、sce、della、cabs、not-for-all-audiences、rp、roleplay、role-play |
語言 |
en |
任務類型 |
文本生成 |