G

Gpt Neo 2.7B

由EleutherAI開發
GPT-Neo 2.7B是EleutherAI基於GPT-3架構復現的27億參數Transformer語言模型,在Pile數據集上訓練完成
下載量 52.68k
發布時間 : 3/2/2022

模型概述

基於Transformer架構的自迴歸語言模型,擅長文本生成任務,可應用於多種自然語言處理場景

模型特點

大規模預訓練
在4200億token的Pile數據集上訓練完成,具有強大的語言理解能力
開源模型
採用MIT許可證,允許商業和研究用途
多領域適應
在科學、物理推理和語言理解等多個領域表現良好

模型能力

文本生成
語言理解
上下文推理

使用案例

內容創作
自動寫作
根據提示生成連貫的文本內容
可生成50字以上的連貫文本
教育研究
科學問答
回答科學和數學相關問題
在MathQA上達到24.72%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase