F

Facebook Bart Large Cnn

Yelyzavetaによって開発
BARTはTransformerベースのシーケンス・ツー・シーケンスモデルで、テキスト要約生成タスク専用です。
ダウンロード数 24
リリース時間 : 10/28/2022

モデル概要

BARTモデルは英語で事前学習され、CNNデイリーメールデータセットでファインチューニングされ、主にテキスト要約生成タスクに使用されます。

モデル特徴

双方向エンコーダーと自己回帰デコーダー
BERTの双方向エンコーダーとGPTの自己回帰デコーダーを組み合わせ、生成と理解タスクに適しています
ノイズ除去事前学習
テキストを破損させ、元のテキストを再構築する方法で事前学習を行います
CNNデイリーメールファインチューニング
ニュース要約タスクに特化して最適化されています

モデル能力

テキスト要約生成
自然言語理解

使用事例

ニュース要約
ニュース記事の要約
長文のニュース記事を自動的に簡潔な要約に圧縮します
ROUGE-1スコア42.9486、ROUGE-2スコア20.8149
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase