🚀 L3.3-Damascus-R1
L3.3-Damascus-R1 是一款基于全新自定义的 DeepSeek R1 蒸馏基础模型 Hydroblated-R1-V3 构建的 AI 模型。它采用了新的 SCE(选择、计算和擦除)合并方法,在稳定性、智能性和感知能力方面有显著提升,适用于多种场景,尤其在角色扮演和故事创作方面表现出色。
🚀 快速开始
你可以通过以下方式使用 L3.3-Damascus-R1 模型:
- 安装所需的库:
library_name: transformers
- 参考推荐的采样器设置和模板,开始使用模型。
✨ 主要特性
- 先进的架构:采用 SCE 合并方法和自定义基础模型,集成了多个高性能模型的专业组件,提升了模型的综合性能。
- 多场景适用:作为通用模型,特别聚焦于角色扮演和故事创作,能满足多样化的使用需求。
- 优化的平衡性:通过集成 Negative_LLAMA 模型,实现了平衡的视角和响应,优化了技术能力与自然对话流畅度之间的平衡。
📦 模型信息
属性 |
详情 |
模型类型 |
L3.3-Damascus-R1 是基于 Llama 3.3 架构,使用 SCE 合并方法构建的 70B 参数模型。 |
基础模型 |
|
许可证 |
other(eva-llama3.3) |
🔧 技术细节
技术架构
Damascus-R1 利用 SCE 合并方法和自定义基础模型,集成了多个高性能模型的新增专业组件:
- 创意表达与场景理解:采用 EVA 和 EURYALE 基础模型,提升创意表达和场景理解能力。
- 增强推理能力:融入 Cirrus 和 Hanami 元素,增强推理能力。
- 详细场景描述:添加 Anubis 组件,实现详细的场景描述。
- 平衡视角与响应:集成 Negative_LLAMA 模型,确保平衡的视角和响应。
核心哲学
Damascus-R1 体现了 AI 模型既可以智能又可以有趣的原则。该版本特别针对近期社区反馈进行了优化,迭代了之前的实验,优化了技术能力与自然对话流畅度之间的平衡。
基础架构
Damascus-R1 的核心是完全自定义的 Hydroblated-R1 基础模型,专门为稳定性、增强推理和性能而设计。SCE 合并方法的设置基于对 Experiment-Model-Ver-A、L3.3-Exp-Nevoria-R1-70b-v0.1 和 L3.3-Exp-Nevoria-70b-v0.1 的评估社区反馈进行了精细调整,能够在保持模型一致性和可靠性的同时,实现精确有效的组件集成。
📊 基准测试结果
UGI 基准测试
截至 2025 年 2 月 2 日的最新基准测试结果如下:
指标 |
数值 |
UGI 得分 |
36.5 |
意愿得分 |
2.5/10 |
自然智能 |
45.62 |
编码能力 |
20 |
模型信息
指标 |
数值 |
政治倾向 |
-17.8% |
意识形态 |
自由主义 |
参数数量 |
70B |
聚合得分
指标 |
得分 |
外交 |
65.5% |
政府 |
49.7% |
经济 |
47.2% |
社会 |
60.0% |
个体得分
指标 |
得分 |
联邦制 |
38.5% |
民主制 |
66.9% |
安全 |
53.5% |
民族主义 |
38.5% |
军国主义 |
33.5% |
同化主义 |
31.5% |
集体化 |
55.2% |
计划经济 |
48.8% |
孤立主义 |
37.7% |
无宗教信仰 |
55.0% |
进步主义 |
62.3% |
加速主义 |
63.1% |
⚙️ 推荐设置
推荐采样器设置(由 @Geechan 提供)
设置 |
详情 |
动态温度 |
最小值:1.0;最大值:1.3 - 1.35;指数:1.0 |
静态温度 |
1.2 |
最小概率 |
0.02 |
DRY 设置 |
乘数:0.8;基数:1.75;长度:4 |
推荐模板与提示
💾 量化版本
GGUF 量化
EXL2 量化
FP8 动态量化
🤝 支持与社区
特别感谢
- @Geechan:提供反馈和采样器设置。
- @Konnect:提供反馈和模板。
- @Kistara:提供反馈并协助模型吉祥物设计。
- @Thana Alt:提供反馈和量化版本。
- @Lightning_missile:提供反馈。
- @Yemosvoto:提供模型名称。
- The Arli 社区:提供反馈和测试。
- The BeaverAI 社区:提供反馈和测试。
开发者表示希望能感谢每一个人,但由于人数众多,可能会使列表过长。