🚀 Pix2Struct - Doc-VQAでファインチューニングされたモデルカード (スキャンドキュメントに対する視覚的質問応答)
Pix2Structは、画像キャプショニングや視覚的質問応答などの様々なタスクに対応した画像エンコーダ - テキストデコーダモデルです。Doc-VQAタスクに特化してファインチューニングされています。

🚀 クイックスタート
このセクションでは、Pix2Structモデルの基本的な使い方を説明します。
✨ 主な機能
- 画像キャプショニングや視覚的質問応答などのタスクに対応
- ウェブページのスクリーンショットをHTMLにパースする事前学習戦略を採用
- 単一の事前学習モデルで4つのドメインの9つのタスクのうち6つで最先端の結果を達成
📦 インストール
T5xからHugging Faceへの変換
以下のスクリプトを使用して、T5xチェックポイントをPyTorch形式に変換できます。
python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE
大規模なモデルを変換する場合は、以下のコマンドを実行します。
python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE --use-large
保存後、以下のコードスニペットを使用して変換したモデルをHugging Face Hubにプッシュできます。
from transformers import Pix2StructForConditionalGeneration, Pix2StructProcessor
model = Pix2StructForConditionalGeneration.from_pretrained(PATH_TO_SAVE)
processor = Pix2StructProcessor.from_pretrained(PATH_TO_SAVE)
model.push_to_hub("USERNAME/MODEL_NAME")
processor.push_to_hub("USERNAME/MODEL_NAME")
💻 使用例
基本的な使用法
モデルを実行する手順は、pix2struct-aid-base
モデルの説明と全く同じです。
📚 ドキュメント
モデル概要
Pix2Structは、視覚的な言語理解のための事前学習画像 - テキストモデルです。ウェブページのマスクされたスクリーンショットを簡略化されたHTMLにパースすることを学習することで事前学習されます。この事前学習戦略により、下流のタスクの多様性に適した大量の事前学習データを提供できます。
モデルの概要は以下の通りです。
視覚的な言語はあらゆる場所に存在します。教科書の図から、画像や表のあるウェブページ、ボタンやフォームのあるモバイルアプリまで、そのソースは多岐にわたります。おそらくこの多様性のため、以前の研究では、基本的なデータ、モデルアーキテクチャ、および目的の共有が限られたドメイン固有の手法に依存することが多かったです。我々は、視覚的な言語を含むタスクでファインチューニングできる、純粋な視覚的言語理解のための事前学習画像 - テキストモデルであるPix2Structを提案します。Pix2Structは、ウェブページのマスクされたスクリーンショットを簡略化されたHTMLにパースすることを学習することで事前学習されます。ウェブは、その豊富な視覚要素がHTML構造にきれいに反映されているため、下流のタスクの多様性に適した大量の事前学習データのソースを提供します。直感的には、この目的は、OCR、言語モデリング、画像キャプショニングなどの一般的な事前学習シグナルを包含しています。新しい事前学習戦略に加えて、我々は可変解像度の入力表現と、質問などの言語プロンプトを入力画像の上に直接レンダリングする、より柔軟な言語と視覚入力の統合を導入します。初めて、単一の事前学習モデルが、ドキュメント、イラスト、ユーザーインターフェース、および自然画像の4つのドメインの9つのタスクのうち6つで最先端の結果を達成できることを示します。
利用可能なモデル一覧
利用可能なモデルの完全なリストは、論文の表1に記載されています。

📄 ライセンス
このモデルはApache 2.0ライセンスの下で提供されています。
🔗 関連情報
貢献者
このモデルは、Kenton Lee、Mandar Joshiらによって最初に貢献され、Younes BelkadaによってHugging Faceエコシステムに追加されました。
引用
この研究を引用する場合は、以下の論文を引用してください。
@misc{https://doi.org/10.48550/arxiv.2210.03347,
doi = {10.48550/ARXIV.2210.03347},
url = {https://arxiv.org/abs/2210.03347},
author = {Lee, Kenton and Joshi, Mandar and Turc, Iulia and Hu, Hexiang and Liu, Fangyu and Eisenschlos, Julian and Khandelwal, Urvashi and Shaw, Peter and Chang, Ming-Wei and Toutanova, Kristina},
keywords = {Computation and Language (cs.CL), Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}