D

Distilbart Cnn 6 6

由sshleifer開發
DistilBART是BART模型的蒸餾版本,專為文本摘要任務優化,在保持較高性能的同時顯著提升推理速度。
下載量 48.17k
發布時間 : 3/2/2022

模型概述

基於BART架構的蒸餾模型,用於生成式文本摘要任務,特別針對新聞摘要場景優化。

模型特點

高效推理
相比原版BART提速2.54倍,參數量減少45%
多配置選擇
提供6種不同參數規模的變體,平衡性能與效率
雙數據集優化
分別在CNN/DailyMail和XSum數據集上專門優化的版本

模型能力

生成式文本摘要
長文本壓縮
新聞要點提取

使用案例

新聞媒體
自動新聞摘要
將長篇新聞報道壓縮為簡潔摘要
在XSum數據集上達到22.12 ROUGE-2分數
內容分析
文檔關鍵信息提取
從長文檔中自動提取核心內容
在CNN/DailyMail數據集上達到21.26 ROUGE-2分數
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase