G

Greekbart

由dascim開發
GreekBART是基於BART的希臘語序列到序列預訓練模型,特別適合生成任務如摘要生成。
下載量 34
發布時間 : 10/14/2024

模型概述

首個預訓練的希臘語序列到序列模型,通過重構被破壞的輸入句子進行預訓練,使用了76.9GB的希臘語原始文本語料庫。

模型特點

希臘語專用
專門針對希臘語進行預訓練和優化,填補了希臘語序列到序列模型的空白。
多任務支持
提供基礎模型和三個微調版本,分別支持摘要生成、標題生成和情感分類任務。
大規模預訓練
使用76.9GB希臘語原始文本進行預訓練,具有強大的語言理解能力。

模型能力

文本摘要生成
新聞標題生成
情感分類
掩碼預測

使用案例

新聞媒體
新聞摘要生成
根據希臘新聞文章自動生成簡潔摘要
示例結果顯示能準確提取關鍵信息
新聞標題生成
為新聞內容自動生成吸引人的標題
示例標題'帕特雷:護士就喬治娜入院作證'
情感分析
評論情感分類
對希臘語文本進行正面/負面情感分類
示例準確識別'希臘文明是最豐富且廣受認可的文明之一。'為正面評價
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase