B

Bart Large Cnn

facebookによって開発
英語コーパスで事前学習されたBARTモデルで、CNNデイリーメールデータセットに特化してファインチューニングされ、テキスト要約タスクに適しています。
ダウンロード数 3.8M
リリース時間 : 3/2/2022

モデル概要

このモデルはTransformerエンコーダー - デコーダーアーキテクチャを採用し、ノイズ除去シーケンスからシーケンスへの事前学習方法により、テキスト生成と理解タスクで優れた性能を発揮します。現在のバージョンはニュース要約能力を特別に最適化しています。

モデル特徴

双方向エンコーダー構造
BERT方式の双方向エンコーダーを組み合わせ、文脈の意味を十分に理解できます。
自己回帰デコーダー
GPTに似た自己回帰生成能力で、テキスト生成の流暢性を保証します。
専門分野のファインチューニング
CNNデイリーメールのニュースデータセットで特別に最適化され、要約効果が顕著です。

モデル能力

ニューステキスト要約
長文テキスト圧縮
重要情報抽出

使用事例

ニュースメディア
ニュースブリーフ生成
長いニュース記事を自動的に簡潔な要約に圧縮します。
ROUGE - Lスコア30.6186(CNNデイリーメールテストセット)
内容要約生成
オンラインニュースプラットフォームの記事のプレビューを自動生成します。
生成テキストの平均長は78.6語
情報処理
文書要約
長い文書から重要情報を抽出します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase