B

Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca

由alnrg2arg開發
這是一個經過剪枝和DPO訓練的7B參數規模的小型LLM,專為設備端用途優化
下載量 18
發布時間 : 1/23/2024

模型概述

該模型是基於Mistral架構的7B參數語言模型,經過合併、剪枝(50%稀疏度)和DPO訓練流程優化,旨在保持性能的同時減少模型體積,適合部署在資源有限的設備上

模型特點

設備端優化
通過50%稀疏度剪枝顯著減小模型體積,適合資源有限的設備部署
DPO訓練
使用直接偏好優化(DPO)方法進行訓練,提高模型輸出質量
高效推理
採用8bit優化和AdamW優化器,提高推理效率

模型能力

英文文本生成
指令跟隨
對話生成

使用案例

移動應用
設備端聊天助手
在智能手機等移動設備上部署輕量級聊天機器人
在保持響應質量的同時減少資源佔用
邊緣計算
本地化文本處理
在邊緣設備上進行文本生成和處理,無需雲端依賴
提高隱私保護和響應速度
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase