🚀 BART(基礎大小模型)
BART是一個在英文語料上進行預訓練的模型。它由Lewis等人在論文BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension中提出,並首次在此代碼庫中發佈。
免責聲明:發佈BART的團隊並未為此模型撰寫模型卡片,此模型卡片由Hugging Face團隊撰寫。
✨ 主要特性
- BART是一個基於Transformer架構的編碼器 - 解碼器(seq2seq)模型,擁有雙向(類似BERT)的編碼器和自迴歸(類似GPT)的解碼器。
- 通過以下方式進行預訓練:(1)使用任意噪聲函數對文本進行損壞;(2)學習一個模型來重構原始文本。
- 在針對文本生成任務(如摘要生成、翻譯)進行微調時特別有效,同時在理解任務(如文本分類、問答)中也表現出色。
🚀 快速開始
你可以使用原始模型進行文本填充。不過,該模型主要用於在有監督的數據集上進行微調。你可以查看模型中心,尋找針對你感興趣的任務進行微調後的版本。
💻 使用示例
基礎用法
以下是如何在PyTorch中使用該模型的示例:
from transformers import BartTokenizer, BartModel
tokenizer = BartTokenizer.from_pretrained('facebook/bart-base')
model = BartModel.from_pretrained('facebook/bart-base')
inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
outputs = model(**inputs)
last_hidden_states = outputs.last_hidden_state
📚 詳細文檔
BibTeX引用和引用信息
@article{DBLP:journals/corr/abs-1910-13461,
author = {Mike Lewis and
Yinhan Liu and
Naman Goyal and
Marjan Ghazvininejad and
Abdelrahman Mohamed and
Omer Levy and
Veselin Stoyanov and
Luke Zettlemoyer},
title = {{BART:} Denoising Sequence-to-Sequence Pre-training for Natural Language
Generation, Translation, and Comprehension},
journal = {CoRR},
volume = {abs/1910.13461},
year = {2019},
url = {http://arxiv.org/abs/1910.13461},
eprinttype = {arXiv},
eprint = {1910.13461},
timestamp = {Thu, 31 Oct 2019 14:02:26 +0100},
biburl = {https://dblp.org/rec/journals/corr/abs-1910-13461.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
📄 許可證
本模型採用Apache-2.0許可證。