T

Text Generation News Gpt2 Small Hungarian

由NYTK開發
基於匈牙利語維基百科預訓練並在匈牙利新聞語料上微調的GPT-2模型,專門用於匈牙利語新聞文本生成
下載量 270
發布時間 : 3/2/2022

模型概述

該模型是基於GPT-2架構的匈牙利語文本生成模型,經過維基百科預訓練和匈牙利新聞網站(hvg.hu, index.hu, nol.hu)微調,專門用於生成匈牙利語新聞內容。

模型特點

匈牙利語優化
專門針對匈牙利語進行預訓練和微調,在匈牙利語文本生成任務上表現優異
新聞領域微調
在匈牙利主流新聞網站語料上進行微調,特別適合新聞類文本生成
低困惑度
在新聞生成任務上達到22.06的困惑度,優於詩歌生成模型(47.46)

模型能力

匈牙利語文本生成
新聞內容創作
標題生成

使用案例

新聞媒體
新聞自動生成
根據關鍵信息自動生成新聞內容
可生成符合匈牙利新聞風格的文本
新聞標題生成
基於新聞內容生成吸引人的標題
內容創作
匈牙利語創意寫作
輔助匈牙利語內容創作
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase