L

Llama 2 7b Hf 4bit 64rank

由LoftQ開發
LoftQ(LoRA微調感知量化)模型,提供量化後的主幹網絡和LoRA適配器,專為LoRA微調設計,提升大語言模型在量化過程中的微調性能和效率。
下載量 1,754
發布時間 : 11/21/2023

模型概述

該模型基於LLAMA-2-7b,通過LoftQ方法進行4位量化,同時提供LoRA適配器,旨在解決大語言模型在量化過程中與LoRA微調不兼容的問題。

模型特點

量化支持
提供4位量化後的主幹網絡,顯著減少模型存儲和計算資源需求。
LoRA微調感知
專門為LoRA微調設計的量化方法,優化微調過程中的性能和效率。
高效存儲
量化後的模型大小約為4.2 GiB,適合資源受限的環境。

模型能力

文本生成
LoRA微調

使用案例

數學問題求解
GSM8K數學問題解答
在GSM8K數據集上進行微調後,模型可用於解答數學問題。
微調後模型在GSM8K上的準確率為35.0%。
文本生成
WikiText-2文本生成
在WikiText-2數據集上進行微調,用於生成連貫的文本。
微調後模型在WikiText-2上的困惑度為5.24。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase