🚀 The-True-Abomination-24B
このモデルは、mergekitを使用して作成された事前学習言語モデルのマージです。このマージにより、SillyTavernの多くの機能や拡張機能と互換性を持ち、ロールプレイでも十分な性能を発揮するモデルを実現しています。
📦 ベースモデル
モデル名 |
TheDrummer/Cydonia-24B-v2 |
ReadyArt/Gaslit-Transgression-24B-v1.0 |
ReadyArt/Forgotten-Safeword-24B-v4.0 |
ReadyArt/The-Omega-Directive-M-24B-v1.1 |
ReadyArt/Omega-Darker_The-Final-Directive-24B |
Mawdistical/Mawdistic-NightLife-24b |
Undi95/MistralThinker-v1.1 |
cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition |
AlexBefest/CardProjector-24B-v3 |
arcee-ai/Arcee-Blitz |
TroyDoesAI/BlackSheep-24B |
📚 ライブラリ情報
属性 |
詳情 |
ライブラリ名 |
transformers |
タグ |
mergekit, merge, sce, della, cabs, not-for-all-audiences, rp, roleplay, role-play |
言語 |
en |
パイプラインタグ |
text-generation |
🔧 マージ詳細
説明
このモデルは、Casual-Autopsy/L3-Super-Nova-RP-8Bと同じ考え方で作成されたマージモデルです。つまり、できるだけ多くのSillyTavernの機能や拡張機能と互換性を持ちながら、ロールプレイでも自立して動作できるように設計されています。
推論能力は完璧ではありませんが、レガシーな推論(ステータスブロック/思考ボックスのCoT)におけるモデルの能力を向上させるのに役立ちます(個人的には、現代的な推論よりもこちらの方が好きです。没入感を損なうことが少ないと思います)。最大推論プロンプトを3以上に設定するか、CoT形式のプロンプトを注入することをおすすめします。
マージ方法
このモデルは、SCE、Della、CABSのマージ方法を使用し、TheDrummer/Cydonia-24B-v2をベースモデルとしてマージされています。
マージに含まれるモデル
設定
このモデルを生成するために使用されたYAML設定は以下の通りです。
Gaslit-Safeword
models:
- model: TheDrummer/Cydonia-24B-v2
- model: ReadyArt/Forgotten-Safeword-24B-v4.0
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
- model: ReadyArt/Gaslit-Transgression-24B-v1.0
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
merge_method: della
base_model: TheDrummer/Cydonia-24B-v2
parameters:
normalize: true
dtype: bfloat16
Omega-Duo
models:
- model: TheDrummer/Cydonia-24B-v2
- model: ReadyArt/The-Omega-Directive-M-24B-v1.1
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
- model: ReadyArt/Omega-Darker_The-Final-Directive-24B
parameters:
weight: 0.4
density: 0.35
epsilon: 0.3
merge_method: della
base_model: TheDrummer/Cydonia-24B-v2
parameters:
normalize: true
dtype: bfloat16
SCE-Abomination
models:
- model: TheDrummer/Cydonia-24B-v2
- model: Mawdistical/Mawdistic-NightLife-24b
- model: Gaslit-Safeword
- model: Omega-Duo
merge_method: sce
base_model: TheDrummer/Cydonia-24B-v2
parameters:
select_topk: 0.8
dtype: bfloat16
UNC-Reasoning
models:
- model: SCE-Abomination
- model: Undi95/MistralThinker-v1.1
parameters:
weight: 0.6
n_val: 16
m_val: 32
- model: cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition
parameters:
weight: 0.4
n_val: 11
m_val: 33
merge_method: cabs
default_n_val: 8
default_m_val: 32
pruning_order:
- Undi95/MistralThinker-v1.1
- cognitivecomputations/Dolphin-Mistral-24B-Venice-Edition
base_model: SCE-Abomination
dtype: bfloat16
INT-Multitasks
models:
- model: SCE-Abomination
- model: AlexBefest/CardProjector-24B-v3
parameters:
weight: 0.6
n_val: 16
m_val: 32
- model: arcee-ai/Arcee-Blitz
parameters:
weight: 0.4
n_val: 11
m_val: 33
merge_method: cabs
default_n_val: 8
default_m_val: 32
pruning_order:
- AlexBefest/CardProjector-24B-v3
- arcee-ai/Arcee-Blitz
base_model: SCE-Abomination
dtype: bfloat16
The-True-Abomination-24B
models:
- model: SCE-Abomination
- model: TroyDoesAI/BlackSheep-24B
- model: UNC-Reasoning
- model: INT-Multitasks
merge_method: sce
base_model: SCE-Abomination
parameters:
select_topk: 0.45
dtype: bfloat16