🚀 TAPASミディアムモデル(WikiTable Questions (WTQ) でファインチューニング済み)
このモデルには2つのバージョンがあり、利用可能です。デフォルトのバージョンは、オリジナルのGitHubリポジトリ の tapas_wtq_wikisql_sqa_inter_masklm_medium_reset
チェックポイントに対応しています。
このモデルは、MLMと著者が中間事前学習と呼ぶ追加のステップで事前学習され、その後、SQA、WikiSQL、そして最後に WTQ の順にチェーンでファインチューニングされています。相対位置埋め込み(つまり、テーブルの各セルで位置インデックスをリセットする)を使用しています。
使用できるもう1つの(非デフォルト)バージョンは、以下の通りです。
no_reset
:tapas_wtq_wikisql_sqa_inter_masklm_medium
(中間事前学習、絶対位置埋め込み)に対応しています。
免責事項:TAPASをリリースしたチームはこのモデルのモデルカードを作成していないため、このモデルカードはHugging Faceチームと貢献者によって作成されました。
✨ 主な機能
- このモデルには2つのバージョンがあり、それぞれ異なる位置埋め込み方法を使用しています。
- 事前学習とファインチューニングを経て、テーブルに関する質問に回答する能力を獲得しています。
📚 ドキュメント
結果
モデルの説明
TAPASは、Wikipediaの大量の英語データコーパスを使って自己教師付き方式で事前学習されたBERTのようなトランスフォーマーモデルです。
つまり、生のテーブルと関連するテキストのみを使って事前学習されており、人間によるラベル付けは一切行われていません(このため、多くの公開データを利用できます)。それらのテキストから自動的に入力とラベルを生成するプロセスが行われます。より具体的には、2つの目的で事前学習されています。
- マスク言語モデリング (MLM):(平坦化された)テーブルと関連するコンテキストを取り、モデルは入力の単語の15%をランダムにマスクし、その後、全体の(部分的にマスクされた)シーケンスをモデルに通します。そして、モデルはマスクされた単語を予測する必要があります。これは、通常、単語を順番に見る従来の再帰型ニューラルネットワーク (RNN) や、内部的に未来のトークンをマスクするGPTのような自己回帰型モデルとは異なります。これにより、モデルはテーブルと関連するテキストの双方向表現を学習することができます。
- 中間事前学習:テーブルに関する数値推論を促進するために、著者らは数百万の構文的に作成されたトレーニング例のバランスの取れたデータセットを作成して、モデルを追加で事前学習しました。ここでは、モデルは文がテーブルの内容によって支持されるか反駁されるかを予測(分類)する必要があります。トレーニング例は、合成文と反事実文の両方に基づいて作成されています。
このようにして、モデルはテーブルと関連するテキストで使用される英語の内部表現を学習し、これを下流のタスク(テーブルに関する質問に回答する、文がテーブルの内容によって含意されるか反駁されるかを判断するなど)に役立つ特徴を抽出するために使用できます。ファインチューニングは、事前学習されたモデルの上にセル選択ヘッドと集約ヘッドを追加し、その後、これらのランダムに初期化された分類ヘッドをベースモデルと一緒にSQa、WikiSQL、そして最後にWTQで共同でトレーニングすることで行われます。
想定される用途と制限
このモデルは、テーブルに関連する質問に回答するために使用できます。
コード例については、HuggingFaceウェブサイトのTAPASのドキュメントを参照してください。
トレーニング手順
前処理
テキストは小文字に変換され、WordPieceを使用してトークン化されます。語彙サイズは30,000です。モデルの入力は、以下の形式になります。
[CLS] 質問 [SEP] 平坦化されたテーブル [SEP]
著者らは最初に、自動変換スクリプトを使用してWTQデータセットをSQAの形式に変換しました。
ファインチューニング
モデルは、最大シーケンス長512、バッチサイズ512で、32個のCloud TPU v3コアで50,000ステップファインチューニングされました。
この設定では、ファインチューニングに約10時間かかります。使用されるオプティマイザは、学習率1.93581e-5、ウォームアップ率0.128960のAdamです。モデルが同じ列のセルのみを選択するように誘導バイアスが追加されています。これは、TapasConfig
の select_one_column
パラメータに反映されています。詳細については、論文(表11と12)を参照してください。
BibTeXエントリと引用情報
@misc{herzig2020tapas,
title={TAPAS: Weakly Supervised Table Parsing via Pre-training},
author={Jonathan Herzig and Paweł Krzysztof Nowak and Thomas Müller and Francesco Piccinno and Julian Martin Eisenschlos},
year={2020},
eprint={2004.02349},
archivePrefix={arXiv},
primaryClass={cs.IR}
}
@misc{eisenschlos2020understanding,
title={Understanding tables with intermediate pre-training},
author={Julian Martin Eisenschlos and Syrine Krichene and Thomas Müller},
year={2020},
eprint={2010.00571},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@article{DBLP:journals/corr/PasupatL15,
author = {Panupong Pasupat and
Percy Liang},
title = {Compositional Semantic Parsing on Semi-Structured Tables},
journal = {CoRR},
volume = {abs/1508.00305},
year = {2015},
url = {http://arxiv.org/abs/1508.00305},
archivePrefix = {arXiv},
eprint = {1508.00305},
timestamp = {Mon, 13 Aug 2018 16:47:37 +0200},
biburl = {https://dblp.org/rec/journals/corr/PasupatL15.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。