M

Molmo 7B O Bnb 4bit

由 cyan2k 开发
Molmo-7B-O的4bit量化版本,显著降低显存需求,适合资源有限的环境。
下载量 2,467
发布时间 : 9/25/2024

模型简介

该模型通过4bit量化技术将原始模型从30GB压缩至7GB,运行时仅需约12GB显存,适用于需要高效运行大型语言模型的场景。

模型特点

高效量化
采用4bit量化技术,模型大小从30GB压缩至7GB,显著降低存储和显存需求。
低显存需求
运行时仅需约12GB显存,适合资源有限的硬件环境。
性能保留
在量化后仍保持较好的模型性能(具体性能指标待公布)。

模型能力

文本生成
语言理解
文本摘要

使用案例

资源受限环境
本地部署
在显存有限的个人电脑或服务器上部署大型语言模型
实现12GB显存需求下的高效运行
研究开发
模型量化研究
作为量化技术研究的基准模型
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase