G

Gpt2023

Developed by crumb
基於GPT-2架構的124M參數語言模型,在2.23B token的多樣化數據上微調,具備改進的文本生成能力
Downloads 136
Release Time : 4/30/2023

Model Overview

這是OpenAI最小的GPT-2模型(124M參數)的微調版本,在Common Crawl網頁、ArXiv論文和GitHub代碼等數據上訓練,優化了生成質量和時效性認知

Model Features

高效微調
在2.23B token數據上微調,接近Chinchilla最優預訓練所需token量
多樣化數據
訓練數據包含網頁內容、學術論文和代碼,覆蓋多領域知識
時效性改進
相比原始GPT-2,對新冠疫情等近期事件有更好的認知能力
輕量級部署
僅需12GB顯存的RTX3060即可運行,適合本地部署

Model Capabilities

文本生成
語言理解
上下文補全

Use Cases

內容創作
文章生成
根據提示生成連貫的文本段落
如新冠疫情分析文本的生成示例
教育研究
學術摘要
基於ArXiv論文數據生成研究摘要
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase