D

Distilbart Xsum 12 3

由sshleifer開發
DistilBART是BART模型的蒸餾版本,專門針對摘要生成任務進行了優化,在保持較高性能的同時顯著減少模型參數量和推理時間。
下載量 579
發布時間 : 3/2/2022

模型概述

基於BART架構的輕量級摘要生成模型,通過知識蒸餾技術壓縮原始模型,適用於新聞摘要等文本壓縮場景。

模型特點

高效推理
相比原始BART模型實現2.54倍加速,顯著降低計算資源需求
性能平衡
在模型大小和摘要質量(Rouge分數)之間取得良好平衡
多版本可選
提供不同參數規模的變體以適應不同硬件條件

模型能力

新聞摘要生成
長文本壓縮
關鍵信息提取

使用案例

媒體行業
新聞自動摘要
將長篇新聞報道壓縮為簡潔摘要
在XSum數據集上達到21.37 Rouge-2分數
知識管理
文檔摘要
自動生成技術文檔或研究報告的概要
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase