G

Greekbart

dascimによって開発
GreekBARTはBARTベースのギリシャ語シーケンス・ツー・シーケンス事前学習モデルで、要約生成などの生成タスクに特に適しています。
ダウンロード数 34
リリース時間 : 10/14/2024

モデル概要

初めての事前学習済みギリシャ語シーケンス・ツー・シーケンスモデルで、破損した入力文を再構築する事前学習を行い、76.9GBのギリシャ語生テキストコーパスを使用しました。

モデル特徴

ギリシャ語専用
ギリシャ語に特化して事前学習と最適化を行い、ギリシャ語シーケンス・ツー・シーケンスモデルの空白を埋めました。
マルチタスク対応
ベースモデルと3つのファインチューニング版を提供し、それぞれ要約生成、見出し生成、感情分類タスクをサポートします。
大規模事前学習
76.9GBのギリシャ語生テキストで事前学習を行い、強力な言語理解能力を持っています。

モデル能力

テキスト要約生成
ニュース見出し生成
感情分類
マスク予測

使用事例

ニュースメディア
ニュース要約生成
ギリシャ語ニュース記事から自動的に簡潔な要約を生成
サンプル結果はキー情報を正確に抽出できることを示しています
ニュース見出し生成
ニュース内容に基づいて魅力的な見出しを自動生成
サンプル見出し'パトラ:看護師がジョージナの入院について証言'
感情分析
コメント感情分類
ギリシャ語テキストをポジティブ/ネガティブに分類
サンプル'ギリシャ文明は最も豊かで広く認められた文明の一つです。'をポジティブ評価として正確に識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase