D

Distilgpt2

由distilbert開發
DistilGPT2是GPT-2的輕量級蒸餾版本,擁有8200萬參數,保留了GPT-2的核心文本生成能力,同時體積更小、速度更快。
下載量 2.7M
發布時間 : 3/2/2022

模型概述

基於Transformer的英語語言模型,採用知識蒸餾技術從GPT-2壓縮而來,適用於文本生成任務。

模型特點

輕量高效
相比GPT-2參數量減少34%,推理速度更快,資源消耗更低
知識蒸餾
採用蒸餾技術保留GPT-2核心能力,模型質量損失較小
即插即用
兼容Hugging Face Transformers庫,可快速集成到現有NLP流程中

模型能力

文本生成
創意寫作輔助
文本自動補全

使用案例

寫作輔助
散文創作
幫助作家生成創意文本段落
可生成連貫的英文散文片段
代碼補全
輔助程序員編寫代碼
娛樂應用
聊天機器人
構建輕量級對話系統
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase