🚀 基因檸檬水:釋放無限可能
本項目受SteelSkull的Nevoria系列啟發,旨在探索模型融合的技術。該模型是數十次融合嘗試的成果,致力於在角色扮演(RP)和創意寫作領域,實現寫作風格、創造力和智能水平的完美平衡。
基礎信息
屬性 |
詳情 |
基礎模型 |
Sao10K/L3.1 - 70B - Hanami - x1、EVA - UNIT - 01/EVA - LLaMA - 3.33 - 70B - v0.1、LatitudeGames/Wayfarer - Large - 70B - Llama - 3.3、crestf411/L3.1 - nemotron - sunfall - v0.7.0、tokyotech - llm/Llama - 3.1 - Swallow - 70B - Instruct - v0.3、SicariusSicariiStuff/Negative_LLAMA_70B、nbeerbower/llama3.1 - kartoffeldes - 70B、deepseek - ai/DeepSeek - R1 - Distill - Llama - 70B |
庫名稱 |
transformers |
標籤 |
mergekit、merge |

🚀 快速開始
本模型專為角色扮演和創意寫作設計,以下是關於該模型的詳細介紹。
✨ 主要特性
模型對比
三種不同版本的模型在寫作風格、創造力和智能水平方面各有優劣,具體差異如下:
版本 |
優勢 |
劣勢 |
釋放版(Unleashed) |
各方面表現均衡 |
存在一定程度的審查限制 |
最終版(Final) |
完全無審查 |
智能水平相對較低 |
日落版(Sunset) |
表現均衡且智能水平最高 |
存在GPT式表達,寫作風格較弱 |
SillyTavern設置
若不確定如何設置,推薦使用Llam@ception的默認設置,將其導入SillyTavern即可直接使用。
採樣器設置
- 溫度(Temp):0.9 - 1.0
- 最小概率(MinP):0.03 - 0.05
- 乾燥度(Dry):0.8, 1.75, 4
建議最後調整溫度參數,以平衡創造力和智能水平。
指令設置
使用Llama - 3 - Instruct - Names,但需要取消勾選“系統與用戶相同”選項。
量化版本
GGUF
- [mradermacher的靜態量化版本](https://huggingface.co/mradermacher/L3.3 - GeneticLemonade - Unleashed - 70B - GGUF)
- [mradermacher的Imatrix量化版本](https://huggingface.co/mradermacher/L3.3 - GeneticLemonade - Unleashed - 70B - i1 - GGUF)
EXL2
- [4.5bpw量化版本](https://huggingface.co/zerofata/L3.3 - GeneticLemonade - Unleashed - 70B - 4.5bpw - h6 - exl2)
- [6bpw量化版本](https://huggingface.co/zerofata/L3.3 - GeneticLemonade - Unleashed - 70B - 6bpw - h8 - exl2)
🔧 技術細節
融合方法
本模型採用SCE融合方法進行融合。
融合配置
merge_v6_base_E
models:
- model: deepseek-ai/DeepSeek-R1-Distill-Llama-70B
- model: nbeerbower/llama3.1-kartoffeldes-70B
- model: tokyotech-llm/Llama-3.1-Swallow-70B-Instruct-v0.3
- model: SicariusSicariiStuff/Negative_LLAMA_70B
select_topk: .15
merge_method: sce
base_model: meta-llama/Llama-3.3-70B-Instruct
out_dtype: bfloat16
dype: float32
tokenizer:
source: base
基因檸檬水釋放版(Genetic Lemonade Unleashed)
models:
- model: EVA-UNIT-01/EVA-LLaMA-3.33-70B-v0.1
- model: LatitudeGames/Wayfarer-Large-70B-Llama-3.3
- model: crestf411/L3.1-nemotron-sunfall-v0.7.0
- model: Sao10K/L3.1-70B-Hanami-x1
merge_method: sce
base_model: ./merge_v6_base_E
select_topk: 0.15
out_dtype: bfloat16
dype: float32
tokenizer:
source: union