G

Gpt2023

由crumb開發
基於GPT-2架構的124M參數語言模型,在2.23B token的多樣化數據上微調,具備改進的文本生成能力
下載量 136
發布時間 : 4/30/2023

模型概述

這是OpenAI最小的GPT-2模型(124M參數)的微調版本,在Common Crawl網頁、ArXiv論文和GitHub代碼等數據上訓練,優化了生成質量和時效性認知

模型特點

高效微調
在2.23B token數據上微調,接近Chinchilla最優預訓練所需token量
多樣化數據
訓練數據包含網頁內容、學術論文和代碼,覆蓋多領域知識
時效性改進
相比原始GPT-2,對新冠疫情等近期事件有更好的認知能力
輕量級部署
僅需12GB顯存的RTX3060即可運行,適合本地部署

模型能力

文本生成
語言理解
上下文補全

使用案例

內容創作
文章生成
根據提示生成連貫的文本段落
如新冠疫情分析文本的生成示例
教育研究
學術摘要
基於ArXiv論文數據生成研究摘要
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase