G

Gpt2 Wikitext2

由dnarqq開發
基於GPT-2架構在wikitext2數據集上微調的語言模型
下載量 63
發布時間 : 11/2/2023

模型概述

該模型是在wikitext2數據集上對GPT-2進行微調的版本,主要用於文本生成任務。

模型特點

基於GPT-2微調
在wikitext2數據集上對GPT-2基礎模型進行了微調
文本生成能力
繼承了GPT-2強大的文本生成能力

模型能力

文本生成
語言建模

使用案例

文本生成
內容創作
可用於輔助文章寫作、故事創作等
對話系統
可作為對話系統的生成組件
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase