G

Gpt2 Distil Chinese Cluecorpussmall

由uer開發
基於CLUECorpusSmall預訓練的中文GPT2輕量級模型,參數規模為6層/768隱藏層,適用於中文文本生成任務
下載量 1,043
發布時間 : 3/2/2022

模型概述

該模型是GPT2的中文輕量級版本,專門針對中文文本生成任務進行優化,能夠生成連貫的中文文本

模型特點

輕量級設計
僅6層Transformer結構,相比標準GPT2模型更輕量,適合資源有限的環境
中文優化
專門針對中文語料進行預訓練,生成的中文文本更符合語言習慣
兩階段訓練
採用128和1024兩種序列長度分階段訓練,提升模型對不同長度文本的處理能力

模型能力

中文文本生成
文本續寫
內容創作

使用案例

內容創作
故事續寫
根據給定的開頭自動生成連貫的故事後續
生成符合上下文邏輯的中文故事內容
文章大綱生成
根據關鍵詞自動生成文章大綱或要點
生成結構合理的文章框架
對話系統
聊天機器人回覆生成
根據用戶輸入生成自然流暢的回覆
生成符合語境的對話回覆
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase