D

Distilbart Xsum 12 6

sshleiferによって開発
DistilBARTはBARTモデルの蒸留版で、テキスト要約タスクに特化しており、高い性能を維持しながらモデルサイズと推論時間を大幅に削減します。
ダウンロード数 1,446
リリース時間 : 3/2/2022

モデル概要

DistilBARTはBARTアーキテクチャに基づく軽量テキスト要約モデルで、知識蒸留技術により元のモデルを圧縮し、ニュース要約生成などのシナリオに適しています。

モデル特徴

効率的な推論
元のBARTモデルと比較して推論速度が2.54倍向上し、良好な要約品質を維持
軽量アーキテクチャ
パラメータ数は222Mのみで、元のBART-large(406M)と比べて約45%削減
マルチバージョン選択
異なる圧縮率のモデルバージョンを提供し、性能と効率のバランスを調整

モデル能力

テキスト要約生成
長文圧縮
キー情報抽出

使用事例

ニュースメディア
ニュース自動要約
長編ニュース記事を簡潔な要約に圧縮
CNN/Daily MailデータセットでRouge-Lが33.37を達成
コンテンツ分析
ドキュメントキー情報抽出
長文ドキュメントから核心内容を抽出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase