G

Gpt2 Finetuned Wikitext2

由Rocketknight1開發
該模型是基於GPT-2架構在wikitext2數據集上進行微調的版本,主要用於文本生成任務。
下載量 17
發布時間 : 3/2/2022

模型概述

這是一個基於GPT-2的微調模型,針對wikitext2數據集進行了優化,適用於通用的文本生成任務。

模型特點

基於GPT-2架構
採用成熟的GPT-2架構,具有良好的文本生成能力
wikitext2微調
在wikitext2數據集上進行微調,適合處理百科類文本
輕量級微調
在保持原始GPT-2能力基礎上進行了針對性優化

模型能力

文本生成
語言建模
文本補全

使用案例

內容生成
百科內容生成
基於wikitext2數據特性,生成百科類文本內容
文本續寫
根據給定文本片段生成連貫的後續內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase