E

Excalibur 7b DPO

由InferenceIllusionist開發
Excalibur-7b-DPO是基於Excalibur-7b基礎模型通過直接偏好優化(DPO)微調的大語言模型,專注於提升對話質量和視覺應用場景表現。
下載量 22
發布時間 : 3/28/2024

模型概述

該模型使用Intel/orca_dpo_pairs數據集進行DPO微調,旨在提升原始模型的回答質量,特別是在視覺應用場景中。微調後模型更具對話性和全面性,在多個基準測試中表現有所提升。

模型特點

DPO微調優化
使用直接偏好優化(DPO)方法微調,顯著提升模型對話質量和回答全面性
視覺應用增強
特別優化了視覺應用場景的表現,支持圖像理解和描述
多格式支持
支持ChatML和Alpaca提示格式,適應不同應用場景
量化版本可選
提供加權量化和靜態量化兩種版本,滿足不同硬件需求

模型能力

文本生成
視覺場景理解
多輪對話
知識問答
推理任務

使用案例

視覺應用
圖像描述生成
根據輸入圖像生成詳細描述
需要額外mmproj文件支持
對話系統
智能助手
構建更自然流暢的對話助手
微調後對話質量顯著提升
教育應用
知識問答
回答各類知識性問題
在AI2推理挑戰賽等基準測試中表現良好
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase