G

Gpt Neo 2.7B 8bit

由gustavecortal開發
這是EleutherAI的GPT-Neo(27億參數版本)的修改版,支持在Colab或同級桌面GPU上進行文本生成與模型微調。
下載量 99
發布時間 : 3/2/2022

模型概述

基於GPT-3架構設計的Transformer模型,支持8位量化以降低硬件需求,適用於文本生成任務。

模型特點

8位量化
通過量化技術降低模型內存佔用,使27億參數模型能在消費級GPU上運行
輕量部署
適配Colab和單卡1080Ti等中端硬件環境
微調支持
保留模型微調能力,支持特定場景的定製化訓練

模型能力

文本生成
模型微調

使用案例

內容創作
自動文本生成
生成連貫的段落或文章
教育研究
語言模型實驗
在有限硬件條件下進行大規模語言模型研究
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase