D

Distilbart Xsum 6 6

由sshleifer開發
DistilBART 是 BART 模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
下載量 147
發布時間 : 3/2/2022

模型概述

DistilBART 是基於 BART 架構的輕量級文本摘要模型,通過知識蒸餾技術壓縮原始模型,適用於生成簡潔準確的摘要。

模型特點

高效推理
相比原始 BART 模型,推理速度提升 2.54 倍
輕量級
參數量減少約 45%,從 406M 降至 222M
性能平衡
在模型大小和摘要質量(Rouge分數)之間取得良好平衡

模型能力

文本摘要生成
長文本壓縮
關鍵信息提取

使用案例

新聞摘要
新聞文章摘要
將長篇新聞文章自動壓縮為簡潔摘要
在 CNN/DailyMail 數據集上 Rouge-L 達到 33.37
內容概括
文檔摘要
為長文檔生成執行摘要
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase