🚀 基因柠檬水:释放无限可能
本项目受SteelSkull的Nevoria系列启发,旨在探索模型融合的技术。该模型是数十次融合尝试的成果,致力于在角色扮演(RP)和创意写作领域,实现写作风格、创造力和智能水平的完美平衡。
基础信息
属性 |
详情 |
基础模型 |
Sao10K/L3.1 - 70B - Hanami - x1、EVA - UNIT - 01/EVA - LLaMA - 3.33 - 70B - v0.1、LatitudeGames/Wayfarer - Large - 70B - Llama - 3.3、crestf411/L3.1 - nemotron - sunfall - v0.7.0、tokyotech - llm/Llama - 3.1 - Swallow - 70B - Instruct - v0.3、SicariusSicariiStuff/Negative_LLAMA_70B、nbeerbower/llama3.1 - kartoffeldes - 70B、deepseek - ai/DeepSeek - R1 - Distill - Llama - 70B |
库名称 |
transformers |
标签 |
mergekit、merge |

🚀 快速开始
本模型专为角色扮演和创意写作设计,以下是关于该模型的详细介绍。
✨ 主要特性
模型对比
三种不同版本的模型在写作风格、创造力和智能水平方面各有优劣,具体差异如下:
版本 |
优势 |
劣势 |
释放版(Unleashed) |
各方面表现均衡 |
存在一定程度的审查限制 |
最终版(Final) |
完全无审查 |
智能水平相对较低 |
日落版(Sunset) |
表现均衡且智能水平最高 |
存在GPT式表达,写作风格较弱 |
SillyTavern设置
若不确定如何设置,推荐使用Llam@ception的默认设置,将其导入SillyTavern即可直接使用。
采样器设置
- 温度(Temp):0.9 - 1.0
- 最小概率(MinP):0.03 - 0.05
- 干燥度(Dry):0.8, 1.75, 4
建议最后调整温度参数,以平衡创造力和智能水平。
指令设置
使用Llama - 3 - Instruct - Names,但需要取消勾选“系统与用户相同”选项。
量化版本
GGUF
- [mradermacher的静态量化版本](https://huggingface.co/mradermacher/L3.3 - GeneticLemonade - Unleashed - 70B - GGUF)
- [mradermacher的Imatrix量化版本](https://huggingface.co/mradermacher/L3.3 - GeneticLemonade - Unleashed - 70B - i1 - GGUF)
EXL2
- [4.5bpw量化版本](https://huggingface.co/zerofata/L3.3 - GeneticLemonade - Unleashed - 70B - 4.5bpw - h6 - exl2)
- [6bpw量化版本](https://huggingface.co/zerofata/L3.3 - GeneticLemonade - Unleashed - 70B - 6bpw - h8 - exl2)
🔧 技术细节
融合方法
本模型采用SCE融合方法进行融合。
融合配置
merge_v6_base_E
models:
- model: deepseek-ai/DeepSeek-R1-Distill-Llama-70B
- model: nbeerbower/llama3.1-kartoffeldes-70B
- model: tokyotech-llm/Llama-3.1-Swallow-70B-Instruct-v0.3
- model: SicariusSicariiStuff/Negative_LLAMA_70B
select_topk: .15
merge_method: sce
base_model: meta-llama/Llama-3.3-70B-Instruct
out_dtype: bfloat16
dype: float32
tokenizer:
source: base
基因柠檬水释放版(Genetic Lemonade Unleashed)
models:
- model: EVA-UNIT-01/EVA-LLaMA-3.33-70B-v0.1
- model: LatitudeGames/Wayfarer-Large-70B-Llama-3.3
- model: crestf411/L3.1-nemotron-sunfall-v0.7.0
- model: Sao10K/L3.1-70B-Hanami-x1
merge_method: sce
base_model: ./merge_v6_base_E
select_topk: 0.15
out_dtype: bfloat16
dype: float32
tokenizer:
source: union