T

Tinystories Gpt2 3M

由calum開發
這是一個小型GPT-2模型,在TinyStories V2數據集上預訓練,具有3M可訓練參數,表現出良好的文本生成連貫性。
下載量 637
發布時間 : 10/9/2023

模型概述

該模型是基於GPT-2架構的小型語言模型,專門為研究目的設計,在有限的詞彙量下展現出令人驚訝的文本生成能力。

模型特點

小型高效
僅3M參數的小型模型,在有限資源下表現出色
連貫生成
在給定其大小的情況下,表現出驚人的文本連貫性
研究友好
採用廣泛支持的GPT-2架構,便於研究實驗

模型能力

英文文本生成
短篇故事創作
受限詞彙量下的連貫表達

使用案例

教育研究
小型語言模型研究
用於研究有限參數下語言模型的性能表現
可觀察到小型模型在特定領域的生成能力
文本生成
簡單故事創作
生成適合兒童閱讀的簡短故事
在訓練詞彙範圍內可生成連貫故事
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase