D

Distilbart Xsum 12 1

由sshleifer開發
DistilBART是BART模型的蒸餾版本,專注於文本摘要生成任務,在保持較高性能的同時顯著減少模型參數量和推理時間。
下載量 396
發布時間 : 3/2/2022

模型概述

基於BART架構的蒸餾模型,專門用於生成新聞文章的簡潔摘要,平衡了模型大小與摘要質量。

模型特點

高效推理
相比原始BART-large模型,推理速度提升2.54倍(XSUM任務)
參數優化
參數量減少45%(222M vs 406M),保持接近基線的摘要質量
多配置選擇
提供不同層數配置的模型變體,滿足不同性能需求

模型能力

新聞摘要生成
長文本壓縮
關鍵信息提取

使用案例

新聞媒體
新聞自動摘要
為長篇新聞報道生成簡潔的要點摘要
在XSUM數據集上達到Rouge-L 33.37
內容分析
文檔關鍵信息提取
從長文檔中提取核心內容
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase