S

Sheared LLaMA 1.3B

由princeton-nlp開發
Sheared-LLaMA-1.3B是基於LLaMA-2-7B通過結構化剪枝和持續預訓練得到的高效語言模型
下載量 11.09k
發布時間 : 10/10/2023

模型概述

該模型通過動態加載RedPajama數據集進行剪枝和持續預訓練,在50B token預算下實現了優於同類模型的性能

模型特點

高效剪枝技術
僅使用0.4B token進行剪枝,大幅降低計算成本
持續預訓練
使用50B token對剪枝後的模型進行持續預訓練,保持性能
兼容性
與LLaMA1和LLaMA2使用相同詞彙表,便於遷移使用

模型能力

文本生成
語言理解
推理任務
閱讀理解
知識密集型任務處理

使用案例

自然語言處理
語言模型基準測試
在ARC、HellaSwag等基準測試中表現優異
平均性能51.0,優於同類1.3B參數模型
知識問答
處理知識密集型問答任務
在TruthfulQA上獲得37.14分
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase