🚀 L3.3-Damascus-R1
L3.3-Damascus-R1 是一款基於全新自定義的 DeepSeek R1 蒸餾基礎模型 Hydroblated-R1-V3 構建的 AI 模型。它採用了新的 SCE(選擇、計算和擦除)合併方法,在穩定性、智能性和感知能力方面有顯著提升,適用於多種場景,尤其在角色扮演和故事創作方面表現出色。
🚀 快速開始
你可以通過以下方式使用 L3.3-Damascus-R1 模型:
- 安裝所需的庫:
library_name: transformers
- 參考推薦的採樣器設置和模板,開始使用模型。
✨ 主要特性
- 先進的架構:採用 SCE 合併方法和自定義基礎模型,集成了多個高性能模型的專業組件,提升了模型的綜合性能。
- 多場景適用:作為通用模型,特別聚焦於角色扮演和故事創作,能滿足多樣化的使用需求。
- 優化的平衡性:通過集成 Negative_LLAMA 模型,實現了平衡的視角和響應,優化了技術能力與自然對話流暢度之間的平衡。
📦 模型信息
屬性 |
詳情 |
模型類型 |
L3.3-Damascus-R1 是基於 Llama 3.3 架構,使用 SCE 合併方法構建的 70B 參數模型。 |
基礎模型 |
|
許可證 |
other(eva-llama3.3) |
🔧 技術細節
技術架構
Damascus-R1 利用 SCE 合併方法和自定義基礎模型,集成了多個高性能模型的新增專業組件:
- 創意表達與場景理解:採用 EVA 和 EURYALE 基礎模型,提升創意表達和場景理解能力。
- 增強推理能力:融入 Cirrus 和 Hanami 元素,增強推理能力。
- 詳細場景描述:添加 Anubis 組件,實現詳細的場景描述。
- 平衡視角與響應:集成 Negative_LLAMA 模型,確保平衡的視角和響應。
核心哲學
Damascus-R1 體現了 AI 模型既可以智能又可以有趣的原則。該版本特別針對近期社區反饋進行了優化,迭代了之前的實驗,優化了技術能力與自然對話流暢度之間的平衡。
基礎架構
Damascus-R1 的核心是完全自定義的 Hydroblated-R1 基礎模型,專門為穩定性、增強推理和性能而設計。SCE 合併方法的設置基於對 Experiment-Model-Ver-A、L3.3-Exp-Nevoria-R1-70b-v0.1 和 L3.3-Exp-Nevoria-70b-v0.1 的評估社區反饋進行了精細調整,能夠在保持模型一致性和可靠性的同時,實現精確有效的組件集成。
📊 基準測試結果
UGI 基準測試
截至 2025 年 2 月 2 日的最新基準測試結果如下:
指標 |
數值 |
UGI 得分 |
36.5 |
意願得分 |
2.5/10 |
自然智能 |
45.62 |
編碼能力 |
20 |
模型信息
指標 |
數值 |
政治傾向 |
-17.8% |
意識形態 |
自由主義 |
參數數量 |
70B |
聚合得分
指標 |
得分 |
外交 |
65.5% |
政府 |
49.7% |
經濟 |
47.2% |
社會 |
60.0% |
個體得分
指標 |
得分 |
聯邦制 |
38.5% |
民主制 |
66.9% |
安全 |
53.5% |
民族主義 |
38.5% |
軍國主義 |
33.5% |
同化主義 |
31.5% |
集體化 |
55.2% |
計劃經濟 |
48.8% |
孤立主義 |
37.7% |
無宗教信仰 |
55.0% |
進步主義 |
62.3% |
加速主義 |
63.1% |
⚙️ 推薦設置
推薦採樣器設置(由 @Geechan 提供)
設置 |
詳情 |
動態溫度 |
最小值:1.0;最大值:1.3 - 1.35;指數:1.0 |
靜態溫度 |
1.2 |
最小概率 |
0.02 |
DRY 設置 |
乘數:0.8;基數:1.75;長度:4 |
推薦模板與提示
💾 量化版本
GGUF 量化
EXL2 量化
FP8 動態量化
🤝 支持與社區
特別感謝
- @Geechan:提供反饋和採樣器設置。
- @Konnect:提供反饋和模板。
- @Kistara:提供反饋並協助模型吉祥物設計。
- @Thana Alt:提供反饋和量化版本。
- @Lightning_missile:提供反饋。
- @Yemosvoto:提供模型名稱。
- The Arli 社區:提供反饋和測試。
- The BeaverAI 社區:提供反饋和測試。
開發者表示希望能感謝每一個人,但由於人數眾多,可能會使列表過長。