B

Bart Large

由facebook開發
BART是一個結合雙向編碼器與自迴歸解碼器的Transformer序列到序列模型,適用於文本生成和理解任務。
下載量 119.86k
發布時間 : 3/2/2022

模型概述

BART模型通過去噪序列到序列預訓練,在自然語言生成、翻譯與理解任務中表現卓越。

模型特點

雙向與自迴歸結合
結合BERT式雙向編碼器和GPT式自迴歸解碼器,兼具理解和生成能力
去噪預訓練
通過破壞和重建文本的預訓練方式,增強模型對噪聲數據的魯棒性
多任務適應性
在生成類任務(如摘要)和理解類任務(如分類)中均有出色表現

模型能力

文本生成
機器翻譯
文本摘要
文本分類
問答系統
文本填充

使用案例

文本生成
自動摘要
對長文本生成簡潔摘要
生成流暢且保留關鍵信息的摘要
機器翻譯
跨語言翻譯
將一種語言翻譯為另一種語言
產生準確且自然的翻譯結果
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase