🚀 基於M - FAC微調的BERT - mini模型
本模型在QNLI數據集上使用了先進的二階優化器M - FAC進行微調。
有關M - FAC的更多詳細信息,請查看NeurIPS 2021的論文:https://arxiv.org/pdf/2107.03356.pdf。
🚀 快速開始
✨ 主要特性
- 本模型基於BERT - mini,在QNLI數據集上使用M - FAC優化器進行微調。
- 與默認的Adam優化器進行了公平對比,微調框架一致,僅替換了優化器。
📦 安裝指南
文檔未提及具體安裝步驟,可參考相關依賴庫的安裝方式,如Hugging Face的transformers
庫:
pip install transformers
💻 使用示例
基礎用法
在https://github.com/huggingface/transformers/blob/master/examples/pytorch/text-classification/run_glue.py中添加M - FAC優化器代碼,並運行以下腳本以復現結果:
CUDA_VISIBLE_DEVICES=0 python run_glue.py \
--seed 8276 \
--model_name_or_path prajjwal1/bert-mini \
--task_name qnli \
--do_train \
--do_eval \
--max_seq_length 128 \
--per_device_train_batch_size 32 \
--learning_rate 1e-4 \
--num_train_epochs 5 \
--output_dir out_dir/ \
--optim MFAC \
--optim_args '{"lr": 1e-4, "num_grads": 1024, "damp": 1e-6}'
📚 詳細文檔
微調設置
為了與默認的Adam基線進行公平比較,我們在https://github.com/huggingface/transformers/tree/master/examples/pytorch/text-classification所述的相同框架中微調模型,僅將Adam優化器替換為M - FAC。
M - FAC優化器使用的超參數如下:
learning rate = 1e-4
number of gradients = 1024
dampening = 1e-6
結果
我們分享了5次運行中表現最佳的模型,其在QNLI驗證集上的得分如下:
accuracy = 83.90
在QNLI驗證集上5次運行的均值和標準差如下:
優化器 |
準確率 |
Adam |
83.85 ± 0.10 |
M - FAC |
83.70 ± 0.13 |
我們認為,通過適度調整超參數per_device_train_batch_size
、learning_rate
、num_train_epochs
、num_grads
和damp
,這些結果可以得到進一步提升。為了進行公平比較和建立穩健的默認設置,我們在所有模型(bert - tiny
、bert - mini
)和所有數據集(SQuAD版本2和GLUE)上使用了相同的超參數。
我們的M - FAC代碼可在以下鏈接找到:https://github.com/IST-DASLab/M-FAC。
關於如何在任何倉庫中集成和使用M - FAC的分步教程可在以下鏈接找到:https://github.com/IST-DASLab/M-FAC/tree/master/tutorials。
📄 許可證
文檔未提及許可證信息。
🔧 技術細節
文檔未提供足夠的技術實現細節。
BibTeX引用和引用信息
@article{frantar2021m,
title={M-FAC: Efficient Matrix-Free Approximations of Second-Order Information},
author={Frantar, Elias and Kurtic, Eldar and Alistarh, Dan},
journal={Advances in Neural Information Processing Systems},
volume={35},
year={2021}
}