🚀 BART(基础大小模型)
BART是一个在英文语料上进行预训练的模型。它由Lewis等人在论文BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension中提出,并首次在此代码库中发布。
免责声明:发布BART的团队并未为此模型撰写模型卡片,此模型卡片由Hugging Face团队撰写。
✨ 主要特性
- BART是一个基于Transformer架构的编码器 - 解码器(seq2seq)模型,拥有双向(类似BERT)的编码器和自回归(类似GPT)的解码器。
- 通过以下方式进行预训练:(1)使用任意噪声函数对文本进行损坏;(2)学习一个模型来重构原始文本。
- 在针对文本生成任务(如摘要生成、翻译)进行微调时特别有效,同时在理解任务(如文本分类、问答)中也表现出色。
🚀 快速开始
你可以使用原始模型进行文本填充。不过,该模型主要用于在有监督的数据集上进行微调。你可以查看模型中心,寻找针对你感兴趣的任务进行微调后的版本。
💻 使用示例
基础用法
以下是如何在PyTorch中使用该模型的示例:
from transformers import BartTokenizer, BartModel
tokenizer = BartTokenizer.from_pretrained('facebook/bart-base')
model = BartModel.from_pretrained('facebook/bart-base')
inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
outputs = model(**inputs)
last_hidden_states = outputs.last_hidden_state
📚 详细文档
BibTeX引用和引用信息
@article{DBLP:journals/corr/abs-1910-13461,
author = {Mike Lewis and
Yinhan Liu and
Naman Goyal and
Marjan Ghazvininejad and
Abdelrahman Mohamed and
Omer Levy and
Veselin Stoyanov and
Luke Zettlemoyer},
title = {{BART:} Denoising Sequence-to-Sequence Pre-training for Natural Language
Generation, Translation, and Comprehension},
journal = {CoRR},
volume = {abs/1910.13461},
year = {2019},
url = {http://arxiv.org/abs/1910.13461},
eprinttype = {arXiv},
eprint = {1910.13461},
timestamp = {Thu, 31 Oct 2019 14:02:26 +0100},
biburl = {https://dblp.org/rec/journals/corr/abs-1910-13461.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
📄 许可证
本模型采用Apache-2.0许可证。