🚀 CS224n SQuAD2.0項目數據集
本模型旨在為CS224n的學生在為默認最終項目建立待超越的基線時節省GPU時間。用於微調此模型的訓練集與官方訓練集相同;不過,評估和模型選擇是使用官方開發集的大約一半(隨機選取的6078個示例)進行的。數據文件可在https://github.com/elgeish/squad/tree/master/data找到 — 這是2020年冬季版本。鑑於官方SQuAD2.0開發集包含該項目的測試集,學生必須確保不以任何方式使用官方SQuAD2.0開發集 — 包括使用在官方SQuAD2.0上微調的模型,因為它們在模型選擇時使用了官方SQuAD2.0開發集。
✨ 主要特性
📊 結果
{
"exact": 78.94044093451794,
"f1": 81.7724930324639,
"total": 6078,
"HasAns_exact": 76.28865979381443,
"HasAns_f1": 82.20385314478195,
"HasAns_total": 2910,
"NoAns_exact": 81.37626262626263,
"NoAns_f1": 81.37626262626263,
"NoAns_total": 3168,
"best_exact": 78.95689371503784,
"best_exact_thresh": 0.0,
"best_f1": 81.78894581298378,
"best_f1_thresh": 0.0
}
⚙️ 顯著參數
{
"do_lower_case": true,
"doc_stride": 128,
"fp16": false,
"fp16_opt_level": "O1",
"gradient_accumulation_steps": 24,
"learning_rate": 3e-05,
"max_answer_length": 30,
"max_grad_norm": 1,
"max_query_length": 64,
"max_seq_length": 384,
"model_name_or_path": "albert-base-v2",
"model_type": "albert",
"num_train_epochs": 3,
"per_gpu_train_batch_size": 8,
"save_steps": 5000,
"seed": 42,
"train_batch_size": 8,
"version_2_with_negative": true,
"warmup_steps": 0,
"weight_decay": 0
}
💻 環境設置
{
"transformers": "2.5.1",
"pytorch": "1.4.0=py3.6_cuda10.1.243_cudnn7.6.3_0",
"python": "3.6.5=hc3d631a_2",
"os": "Linux 4.15.0-1060-aws #62-Ubuntu SMP Tue Feb 11 21:23:22 UTC 2020 x86_64 x86_64 x86_64 GNU/Linux",
"gpu": "Tesla V100-SXM2-16GB"
}
📚 詳細文檔
📝 引用方式
@misc{elgeish2020gestalt,
title={Gestalt: a Stacking Ensemble for SQuAD2.0},
author={Mohamed El-Geish},
journal={arXiv e-prints},
archivePrefix={arXiv},
eprint={2004.07067},
year={2020},
}
🌟 相關模型