G

Gpt J 6B 8bit

由hivemind開發
這是EleutherAI GPT-J 60億參數模型的8位量化版本,專為在有限GPU資源(如Colab或1080Ti)上運行和微調而優化。
下載量 176
發布時間 : 3/2/2022

模型概述

通過8位權重量化、梯度檢查點和LoRA技術,使大型語言模型能在消費級GPU上運行和微調,同時保持接近原版的模型質量。

模型特點

8位動態量化
大型權重矩陣以8位存儲,計算時動態反量為float16/32,顯著降低內存佔用同時保持計算精度
梯度檢查點技術
每層僅存儲一個激活值,內存佔用減少30%,但訓練速度相應降低
LoRA微調支持
結合低秩適配器(LoRA)和8位Adam優化器,實現高效參數微調
消費級GPU兼容
優化後模型可在11GB顯存的單GPU(如1080Ti)上運行,適合Colab等環境

模型能力

文本生成
語言建模
模型微調

使用案例

資源受限環境部署
Colab筆記本運行
在免費Colab實例上運行60億參數大模型
成功在K80/T4等消費級GPU實現推理
定製化微調
領域適配訓練
使用LoRA技術對特定領域數據微調
保持基礎模型能力的同時適配專業領域
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase