D

Distilbart Xsum 6 6

Developed by sshleifer
DistilBART 是 BART 模型的蒸馏版本,专注于文本摘要任务,在保持较高性能的同时显著减少模型大小和推理时间。
Downloads 147
Release Time : 3/2/2022

Model Overview

DistilBART 是基于 BART 架构的轻量级文本摘要模型,通过知识蒸馏技术压缩原始模型,适用于生成简洁准确的摘要。

Model Features

高效推理
相比原始 BART 模型,推理速度提升 2.54 倍
轻量级
参数量减少约 45%,从 406M 降至 222M
性能平衡
在模型大小和摘要质量(Rouge分数)之间取得良好平衡

Model Capabilities

文本摘要生成
长文本压缩
关键信息提取

Use Cases

新闻摘要
新闻文章摘要
将长篇新闻文章自动压缩为简洁摘要
在 CNN/DailyMail 数据集上 Rouge-L 达到 33.37
内容概括
文档摘要
为长文档生成执行摘要
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase