🚀 GodSlayer-12B-ABYSS
这是一个使用 mergekit 合并预训练语言模型得到的模型。该模型的目标是保持相当的稳定性和连贯性,同时消除正向偏差,提高回复的真实性和多样性。这是第12号模型。
🚀 快速开始
本模型使用 mergekit 完成合并,你可参考该工具的文档进行使用。
📚 详细文档
🔍 合并详情
📋 合并方法
此模型采用 NuSLERP 合并方法,以 IntervitensInc/Mistral-Nemo-Base-2407-chatml 为基础模型进行合并。
📑 参与合并的模型
以下模型参与了合并:
⚙️ 配置
以下是用于生成此模型的 YAML 配置:
models:
- model: PocketDoc/Dans-PersonalityEngine-V1.1.0-12b
parameters:
weight:
- filter: self_attn
value: 0.2
- filter: mlp
value: 0.2
- value: 0.2
density: 0.6
- model: ArliAI/Mistral-Nemo-12B-ArliAI-RPMax-v1.2
parameters:
weight:
- filter: self_attn
value: 0.15
- filter: mlp
value: 0.15
- value: 0.15
density: 0.55
- model: HumanLLMs/Human-Like-Mistral-Nemo-Instruct-2407
parameters:
weight:
- filter: self_attn
value: 0.1
- filter: mlp
value: 0.1
- value: 0.1
density: 0.5
- model: LatitudeGames/Wayfarer-12B
parameters:
weight:
- filter: self_attn
value: 0.25
- filter: mlp
value: 0.25
- value: 0.25
density: 0.65
base_model: TheDrummer/UnslopNemo-12B-v4
merge_method: della_linear
dtype: bfloat16
chat_template: "chatml"
tokenizer_source: union
parameters:
normalize: true
int8_mask: true
epsilon: 0.1
lambda: 1
models:
- model: rAIfle/Questionable-MN-bf16
parameters:
weight:
- filter: self_attn
value: 0.2
- filter: mlp
value: 0.2
- value: 0.2
density: 0.6
- model: DavidAU/MN-GRAND-Gutenberg-Lyra4-Lyra-12B-DARKNESS
parameters:
weight:
- filter: self_attn
value: 0.3
- filter: mlp
value: 0.3
- value: 0.3
density: 0.7
- model: allura-org/MN-12b-RP-Ink
parameters:
weight:
- filter: self_attn
value: 0.35
- filter: mlp
value: 0.35
- value: 0.35
density: 0.75
- model: romaingrx/red-teamer-mistral-nemo
parameters:
weight:
- filter: self_attn
value: 0.25
- filter: mlp
value: 0.25
- value: 0.25
density: 0.65
base_model: TheDrummer/UnslopNemo-12B-v4
merge_method: della_linear
dtype: bfloat16
chat_template: "chatml"
tokenizer_source: union
parameters:
normalize: true
int8_mask: true
epsilon: 0.1
lambda: 1
models:
- model: P1
parameters:
weight: 0.5
- model: P2
parameters:
weight: 0.5
base_model: IntervitensInc/Mistral-Nemo-Base-2407-chatml
merge_method: nuslerp
dtype: bfloat16
chat_template: "chatml"
tokenizer:
source: union
parameters:
normalize: true
int8_mask: true
📄 模型信息
属性 |
详情 |
基础模型 |
LatitudeGames/Wayfarer-12B、ArliAI/Mistral-Nemo-12B-ArliAI-RPMax-v1.2、PocketDoc/Dans-PersonalityEngine-V1.1.0-12b、HumanLLMs/Human-Like-Mistral-Nemo-Instruct-2407、TheDrummer/UnslopNemo-12B-v4、romaingrx/red-teamer-mistral-nemo、DavidAU/MN-GRAND-Gutenberg-Lyra4-Lyra-12B-DARKNESS、rAIfle/Questionable-MN-bf16、allura-org/MN-12b-RP-Ink、IntervitensInc/Mistral-Nemo-Base-2407-chatml |
库名称 |
transformers |
标签 |
mergekit、merge、12b、chat、roleplay、creative-writing、DELLA-linear |