P

Prosparse Llama 2 7b

由SparseLLM開發
基於LLaMA-2-7B的激活稀疏化大語言模型,通過ProSparse方法實現高稀疏率(89.32%)且保持原始性能
下載量 152
發布時間 : 2/19/2024

模型概述

採用漸進式稀疏正則化訓練的ReLU激活LLaMA-2變體,顯著提升推理效率,適用於文本生成與理解任務

模型特點

高激活稀疏性
通過ProSparse方法實現89.32%的稀疏率,顯著高於同類ReLU模型(如ReluLLaMA-7B的66.98%)
性能無損
在保持與原始Swish激活LLaMA-2相當任務性能的前提下實現稀疏化
推理加速
高稀疏性支持PowerInfer框架和定製GPU算子,實測可獲得1.27-2.17倍加速
漸進式訓練
三階段訓練流程:激活替換→漸進正則化→閾值偏移,有效平衡稀疏性與性能

模型能力

文本生成
代碼生成
常識推理
閱讀理解
數學推理

使用案例

高效推理
邊緣設備部署
利用高稀疏性在資源受限設備實現高效推理
在PowerInfer框架下單A100 GPU達218.3 tokens/s
學術研究
稀疏化方法驗證
作為激活稀疏化研究的基準模型
當前開源LLaMA同尺寸中最稀疏的激活模型
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase