G

Gpt2 Finetuned Greek

由lighteternal開發
基於英語GPT-2模型微調的希臘語文本生成模型,由希臘軍事學院和克里特技術大學聯合開發
下載量 178
發布時間 : 3/2/2022

模型概述

這是一個針對希臘語優化的文本生成模型,基於OpenAI GPT-2架構,通過逐步解凍層進行微調訓練,適用於希臘語文本生成任務

模型特點

高效微調方法
採用逐步解凍層的微調方式,相比從頭訓練更高效,特別適合資源較少的語言
大規模訓練數據
使用約23.4GB的希臘語語料庫進行訓練,包含多種來源的文本數據
預訓練模型遷移
基於英語GPT-2模型進行微調,充分利用預訓練模型的知識

模型能力

希臘語文本生成
語言模型續寫
創意寫作輔助

使用案例

文本生成
故事續寫
根據給定的開頭繼續生成連貫的故事內容
可生成符合希臘語語法和語境的連貫文本
內容創作輔助
幫助作家或內容創作者生成創意文本
提供多樣化的文本續寫選擇
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase