L

Llmc Gpt2 774M 150B

由mdouglas開發
這是一個基於GPT-2架構的774M參數語言模型,使用FineWeb數據集中的1500億token進行訓練。
下載量 18
發布時間 : 6/12/2024

模型概述

該模型是GPT-2架構的實現,專注於英語文本生成和理解任務。

模型特點

高效訓練
在8塊A100 80GB SXM顯卡上僅需約6天完成訓練
大規模數據訓練
使用FineWeb數據集中的1500億token進行訓練
輕量級實現
基於llm.c的高效實現

模型能力

英語文本生成
語言理解
上下文學習

使用案例

文本生成
內容創作
生成文章、故事或其他創意文本
對話系統
構建聊天機器人或虛擬助手
教育
語言學習
作為英語學習輔助工具
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase