L

Llama 2 7b Hf 4bit 64rank

由 LoftQ 开发
LoftQ(LoRA微调感知量化)模型,提供量化后的主干网络和LoRA适配器,专为LoRA微调设计,提升大语言模型在量化过程中的微调性能和效率。
下载量 1,754
发布时间 : 11/21/2023

模型简介

该模型基于LLAMA-2-7b,通过LoftQ方法进行4位量化,同时提供LoRA适配器,旨在解决大语言模型在量化过程中与LoRA微调不兼容的问题。

模型特点

量化支持
提供4位量化后的主干网络,显著减少模型存储和计算资源需求。
LoRA微调感知
专门为LoRA微调设计的量化方法,优化微调过程中的性能和效率。
高效存储
量化后的模型大小约为4.2 GiB,适合资源受限的环境。

模型能力

文本生成
LoRA微调

使用案例

数学问题求解
GSM8K数学问题解答
在GSM8K数据集上进行微调后,模型可用于解答数学问题。
微调后模型在GSM8K上的准确率为35.0%。
文本生成
WikiText-2文本生成
在WikiText-2数据集上进行微调,用于生成连贯的文本。
微调后模型在WikiText-2上的困惑度为5.24。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase