🚀 BERT-miniモデル(M-FACでファインチューニング済み)
このモデルは、最先端の2次オプティマイザであるM-FACを使用して、QNLIデータセットでファインチューニングされています。M-FACの詳細については、NeurIPS 2021の論文を参照してください:https://arxiv.org/pdf/2107.03356.pdf。
🚀 クイックスタート
このセクションでは、BERT-miniモデルをM-FACでファインチューニングする手順や結果について説明します。
✨ 主な機能
- M-FACオプティマイザを使用してBERT-miniモデルをQNLIデータセットでファインチューニング。
- デフォルトのAdamオプティマイザとの公平な比較を行うための設定。
- ファインチューニングの結果を共有し、再現可能な手順を提供。
📦 インストール
このREADMEには直接的なインストール手順が記載されていないため、このセクションは省略します。
💻 使用例
基本的な使用法
M-FACオプティマイザでBERT-miniモデルをファインチューニングするためのハイパーパラメータは以下の通りです。
learning rate = 1e-4
number of gradients = 1024
dampening = 1e-6
高度な使用法
以下のbashスクリプトを実行することで、QNLIデータセットでのファインチューニング結果を再現できます。
CUDA_VISIBLE_DEVICES=0 python run_glue.py \
--seed 8276 \
--model_name_or_path prajjwal1/bert-mini \
--task_name qnli \
--do_train \
--do_eval \
--max_seq_length 128 \
--per_device_train_batch_size 32 \
--learning_rate 1e-4 \
--num_train_epochs 5 \
--output_dir out_dir/ \
--optim MFAC \
--optim_args '{"lr": 1e-4, "num_grads": 1024, "damp": 1e-6}'
📚 ドキュメント
ファインチューニングの設定
デフォルトのAdamベースラインとの公平な比較のため、以下のフレームワークでモデルをファインチューニングし、AdamオプティマイザをM-FACに置き換えます。
https://github.com/huggingface/transformers/tree/master/examples/pytorch/text-classification
結果
5回の実行の中で最良のモデルを共有し、QNLI検証セットで以下のスコアを達成しました。
accuracy = 83.90
QNLI検証セットでの5回の実行の平均と標準偏差は以下の通りです。
|
正解率 |
Adam |
83.85 ± 0.10 |
M-FAC |
83.70 ± 0.13 |
引用情報
@article{frantar2021m,
title={M-FAC: Efficient Matrix-Free Approximations of Second-Order Information},
author={Frantar, Elias and Kurtic, Eldar and Alistarh, Dan},
journal={Advances in Neural Information Processing Systems},
volume={35},
year={2021}
}
🔧 技術詳細
このセクションでは、M-FACオプティマイザを使用したBERT-miniモデルのファインチューニングの技術的な詳細について説明します。
ハイパーパラメータ
M-FACオプティマイザで使用されるハイパーパラメータは以下の通りです。
パラメータ |
値 |
学習率 |
1e-4 |
勾配の数 |
1024 |
減衰率 |
1e-6 |
再現性
結果は、以下のリポジトリのコードにM-FACオプティマイザのコードを追加し、上記のbashスクリプトを実行することで再現できます。
https://github.com/huggingface/transformers/blob/master/examples/pytorch/text-classification/run_glue.py
改善の可能性
ハイパーパラメータ(per_device_train_batch_size
, learning_rate
, num_train_epochs
, num_grads
, damp
)を適切に調整することで、結果を改善できる可能性があります。公平な比較と堅牢なデフォルト設定のために、すべてのモデル(bert-tiny
, bert-mini
)とすべてのデータセット(SQuAD version 2とGLUE)で同じハイパーパラメータを使用しています。
M-FACのコード
M-FACのコードは以下のリポジトリで公開されています。
https://github.com/IST-DASLab/M-FAC
M-FACの使い方ガイド
任意のリポジトリでM-FACを統合して使用するためのステップバイステップのチュートリアルは以下のリンクから参照できます。
https://github.com/IST-DASLab/M-FAC/tree/master/tutorials
📄 ライセンス
このREADMEにはライセンス情報が記載されていないため、このセクションは省略します。