G

Gpt Neo 125m

由EleutherAI開發
GPT-Neo 125M是基於GPT-3架構的Transformer模型,由EleutherAI開發,參數量為1.25億,主要用於英語文本生成任務。
下載量 150.96k
發布時間 : 3/2/2022

模型概述

GPT-Neo 125M是一個自迴歸語言模型,基於Transformer架構設計,主要用於根據提示生成文本。它在大規模數據集The Pile上進行了預訓練,能夠學習英語語言的內部表徵。

模型特點

基於GPT-3架構
復現了GPT-3的架構設計,具有相似的文本生成能力。
大規模預訓練
在The Pile數據集上訓練了3000億個token,學習到豐富的語言表徵。
開源模型
由EleutherAI開發並開源,可供研究和商業用途。

模型能力

文本生成
語言建模
文本補全

使用案例

文本生成
創意寫作
根據提示生成故事、詩歌等創意文本。
內容補全
根據部分文本輸入自動補全後續內容。
研究
語言模型研究
用於研究自迴歸語言模型的行為和性能。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase