🚀 DeBERTa:具有解耦注意力的解碼增強型BERT
DeBERTa通過解耦注意力和增強掩碼解碼器改進了BERT和RoBERTa模型。在使用80GB訓練數據的情況下,它在大多數自然語言理解(NLU)任務上的表現優於BERT和RoBERTa。
更多詳細信息和更新請查看官方倉庫。
這是針對多類型自然語言推理(MNLI)任務進行微調的DeBERTa大模型。
✨ 主要特性
- 模型改進:使用解耦注意力和增強掩碼解碼器改進BERT和RoBERTa模型。
- 性能優越:在多數NLU任務上表現優於BERT和RoBERTa。
📚 詳細文檔
NLU任務微調
我們展示了在SQuAD 1.1/2.0和幾個GLUE基準任務上的開發結果。
模型 |
SQuAD 1.1 |
SQuAD 2.0 |
MNLI - m/mm |
SST - 2 |
QNLI |
CoLA |
RTE |
MRPC |
QQP |
STS - B |
|
F1/EM |
F1/EM |
Acc |
Acc |
Acc |
MCC |
Acc |
Acc/F1 |
Acc/F1 |
P/S |
BERT - Large |
90.9/84.1 |
81.8/79.0 |
86.6/- |
93.2 |
92.3 |
60.6 |
70.4 |
88.0/- |
91.3/- |
90.0/- |
RoBERTa - Large |
94.6/88.9 |
89.4/86.5 |
90.2/- |
96.4 |
93.9 |
68.0 |
86.6 |
90.9/- |
92.2/- |
92.4/- |
XLNet - Large |
95.1/89.7 |
90.6/87.9 |
90.8/- |
97.0 |
94.9 |
69.0 |
85.9 |
90.8/- |
92.3/- |
92.5/- |
[DeBERTa - Large](https://huggingface.co/microsoft/deberta - large)1 |
95.5/90.1 |
90.7/88.0 |
91.3/91.1 |
96.5 |
95.3 |
69.5 |
91.0 |
92.6/94.6 |
92.3/- |
92.8/92.5 |
[DeBERTa - XLarge](https://huggingface.co/microsoft/deberta - xlarge)1 |
-/- |
-/- |
91.5/91.2 |
97.0 |
- |
- |
93.1 |
92.1/94.3 |
- |
92.9/92.7 |
[DeBERTa - V2 - XLarge](https://huggingface.co/microsoft/deberta - v2 - xlarge)1 |
95.8/90.8 |
91.4/88.9 |
91.7/91.6 |
97.5 |
95.8 |
71.1 |
93.9 |
92.0/94.2 |
92.3/89.8 |
92.9/92.9 |
[DeBERTa - V2 - XXLarge](https://huggingface.co/microsoft/deberta - v2 - xxlarge)1,2 |
96.1/91.4 |
92.2/89.7 |
91.7/91.9 |
97.2 |
96.0 |
72.0 |
93.5 |
93.1/94.9 |
92.7/90.3 |
93.2/93.1 |
注意事項
- 1 遵循RoBERTa的做法,對於RTE、MRPC、STS - B任務,我們基於[DeBERTa - Large - MNLI](https://huggingface.co/microsoft/deberta - large - mnli)、[DeBERTa - XLarge - MNLI](https://huggingface.co/microsoft/deberta - xlarge - mnli)、[DeBERTa - V2 - XLarge - MNLI](https://huggingface.co/microsoft/deberta - v2 - xlarge - mnli)、[DeBERTa - V2 - XXLarge - MNLI](https://huggingface.co/microsoft/deberta - v2 - xxlarge - mnli)對這些任務進行微調。從MNLI微調模型開始時,SST - 2/QQP/QNLI/SQuADv2的結果也會略有提升,但我們僅報告從預訓練基礎模型微調得到的結果。
- 2 要使用**HF transformers嘗試XXLarge模型,你需要指定--sharded_ddp**。
cd transformers/examples/text - classification/
export TASK_NAME=mrpc
python -m torch.distributed.launch --nproc_per_node=8 run_glue.py --model_name_or_path microsoft/deberta - v2 - xxlarge \
--task_name $TASK_NAME --do_train --do_eval --max_seq_length 128 --per_device_train_batch_size 4 \
--learning_rate 3e - 6 --num_train_epochs 3 --output_dir /tmp/$TASK_NAME/ --overwrite_output_dir --sharded_ddp --fp16
引用
如果你發現DeBERTa對你的工作有幫助,請引用以下論文:
@inproceedings{
he2021deberta,
title={DEBERTA: DECODING - ENHANCED BERT WITH DISENTANGLED ATTENTION},
author={Pengcheng He and Xiaodong Liu and Jianfeng Gao and Weizhu Chen},
booktitle={International Conference on Learning Representations},
year={2021},
url={https://openreview.net/forum?id=XPZIaotutsD}
}
📄 許可證
本項目採用MIT許可證。