D

Distilgpt2 Finetuned Wikitext2

由Rocketknight1開發
該模型是基於distilgpt2在wikitext2數據集上微調的版本,主要用於文本生成任務。
下載量 25
發布時間 : 3/2/2022

模型概述

這是一個經過微調的DistilGPT-2模型,適用於通用的文本生成任務。基於GPT-2的輕量級版本,保留了核心生成能力的同時減少了模型大小。

模型特點

輕量級設計
基於DistilGPT-2架構,比標準GPT-2更小更快,同時保留了大部分語言理解能力
微調優化
在wikitext2數據集上進行了微調,提升了特定領域的文本生成質量

模型能力

文本生成
語言建模

使用案例

內容創作
自動文本生成
可用於生成連貫的段落文本
教育
語言學習輔助
生成示例句子或段落用於語言學習
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase