🚀 [ryzen88/Llama-3-70b-Arimas-story-RP-V1.6的EXL2量化版本]
本项目提供了 ryzen88/Llama-3-70b-Arimas-story-RP-V1.6 模型的EXL2量化版本,方便不同场景下的使用。
🚀 快速开始
以下是不同比特率的量化版本链接:
这些量化版本使用 exllamav2 1.4.0 的 convert.py 默认参数创建,具体参数如下:
- 3.0bpw 到 6.0bpw 的头部比特数 = 6
- 8.0bpw 的头部比特数 = 8
- 长度 = 8192
- 数据集行数 = 200
- 测量行数 = 32
- 测量长度 = 8192
✨ 主要特性
本模型 Llama-3-70b-Arimas-story-RP-V1.6 是使用 mergekit 对预训练语言模型进行合并得到的。
合并详情
- 大幅增加了合并中使用的模型数量,并对不同的想法进行了大量实验。此版本比 V1.5 更具说服力,希望在量化后长上下文窗口的性能依然强劲。
- 由于多次合并,从 BFloat 切换回了 Float。
- 尝试了不带 Ties 的 breadcrums 方法,但效果很差。
合并方法
该模型使用 breadcrumbs_ties 合并方法,以 I:\Llama-3-70B-Instruct-Gradient-262k
为基础进行合并。
合并的模型
以下模型参与了合并:
- \Smaug-Llama-3-70B-Instruct
- \Meta-LLama-3-Cat-Smaug-LLama-70b
- \Meta-LLama-3-Cat-A-LLama-70b
- \Llama-3-70B-Synthia-v3.5
- \Llama-3-70B-Instruct-Gradient-524k
- \Llama-3-70B-Instruct-Gradient-262k
- \Tess-2.0-Llama-3-70B-v0.2
- \Llama-3-Lumimaid-70B-v0.1-alt
配置
以下是用于生成此模型的 YAML 配置:
models:
- model: \Llama-3-70B-Instruct-Gradient-262k
parameters:
weight: 0.25
density: 0.90
gamma: 0.01
- model: \Meta-LLama-3-Cat-Smaug-LLama-70b
parameters:
weight: 0.28
density: 0.90
gamma: 0.01
- model: \Llama-3-Lumimaid-70B-v0.1-alt
parameters:
weight: 0.15
density: 0.90
gamma: 0.01
- model: \Tess-2.0-Llama-3-70B-v0.2
parameters:
weight: 0.06
density: 0.90
gamma: 0.01
- model: \Smaug-Llama-3-70B-Instruct
parameters:
weight: 0.04
density: 0.90
gamma: 0.01
- model: \Llama-3-70B-Synthia-v3.5
parameters:
weight: 0.05
density: 0.90
gamma: 0.01
- model: \Llama-3-70B-Instruct-Gradient-524k
parameters:
weight: 0.03
density: 0.90
gamma: 0.01
- model: \Meta-LLama-3-Cat-A-LLama-70b
parameters:
weight: 0.14
density: 0.90
gamma: 0.01
merge_method: breadcrumbs_ties
base_model: I:\Llama-3-70B-Instruct-Gradient-262k
dtype: float16