🚀 Pix2Struct - 在Doc - VQA(扫描文档视觉问答)上微调的模型
Pix2Struct是一个图像编码器 - 文本解码器模型,它基于图像 - 文本对进行训练,可用于多种任务,包括图像描述和视觉问答,为视觉语言理解提供了强大的支持。
🚀 快速开始
从T5x转换为Hugging Face模型
你可以使用convert_pix2struct_checkpoint_to_pytorch.py
脚本进行转换,具体命令如下:
python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE
如果你要转换一个大型模型,请运行:
python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE --use-large
保存模型后,你可以使用以下代码片段将转换后的模型推送到Hugging Face Hub:
from transformers import Pix2StructForConditionalGeneration, Pix2StructProcessor
model = Pix2StructForConditionalGeneration.from_pretrained(PATH_TO_SAVE)
processor = Pix2StructProcessor.from_pretrained(PATH_TO_SAVE)
model.push_to_hub("USERNAME/MODEL_NAME")
processor.push_to_hub("USERNAME/MODEL_NAME")
运行模型
运行此模型的说明与[pix2struct - aid - base
](https://huggingface.co/ybelkada/pix2struct - ai2d - base)模型的说明完全相似。
✨ 主要特性
Pix2Struct是一个图像编码器 - 文本解码器模型,经过图像 - 文本对的训练,可用于多种任务,包括图像描述和视觉问答。该模型的预训练目标是将网页的掩码截图解析为简化的HTML,这种策略涵盖了常见的预训练信号,如OCR、语言建模和图像描述。此外,模型引入了可变分辨率的输入表示和更灵活的语言与视觉输入集成方式,能够在文档、插图、用户界面和自然图像四个领域的九个任务中的六个任务中取得最先进的结果。
📚 详细文档
模型概述
Pix2Struct是一个用于纯视觉语言理解的预训练图像到文本模型,可在包含视觉语言的任务上进行微调。模型的预训练数据来源于网页,其丰富的视觉元素清晰地反映在HTML结构中,为预训练提供了大量适合下游任务多样性的数据。
模型摘要指出:
视觉情境语言无处不在,其来源范围从带有图表的教科书到带有图像和表格的网页,再到带有按钮和表单的移动应用程序。由于这种多样性,以往的工作通常依赖于特定领域的方法,底层数据、模型架构和目标的共享有限。我们提出了Pix2Struct,这是一个用于纯视觉语言理解的预训练图像到文本模型,可在包含视觉情境语言的任务上进行微调。Pix2Struct通过学习将网页的掩码截图解析为简化的HTML进行预训练。网络中丰富的视觉元素在HTML结构中得到了清晰的体现,为预训练提供了大量适合下游任务多样性的数据。直观地说,这个目标涵盖了常见的预训练信号,如OCR、语言建模、图像描述。除了新颖的预训练策略,我们还引入了可变分辨率的输入表示和更灵活的语言与视觉输入集成方式,其中问题等语言提示直接渲染在输入图像之上。我们首次表明,一个单一的预训练模型可以在四个领域(文档、插图、用户界面和自然图像)的九个任务中的六个任务中取得最先进的结果。
可用模型列表
完整的可用模型列表可以在论文的表1中找到:

🔧 技术细节
模型转换
使用convert_pix2struct_checkpoint_to_pytorch.py
脚本将T5x模型转换为Hugging Face的PyTorch模型。对于大型模型,需要添加--use - large
参数。转换后的模型可以使用push_to_hub
方法推送到Hugging Face Hub。
模型运行
运行此模型的说明与pix2struct - aid - base
模型的说明相同。
📄 许可证
本模型使用的许可证为Apache 2.0。
🤝 贡献者
此模型最初由Kenton Lee、Mandar Joshi等人贡献,并由Younes Belkada添加到Hugging Face生态系统中。
📖 引用
如果你想引用这项工作,请考虑引用原始论文:
@misc{https://doi.org/10.48550/arxiv.2210.03347,
doi = {10.48550/ARXIV.2210.03347},
url = {https://arxiv.org/abs/2210.03347},
author = {Lee, Kenton and Joshi, Mandar and Turc, Iulia and Hu, Hexiang and Liu, Fangyu and Eisenschlos, Julian and Khandelwal, Urvashi and Shaw, Peter and Chang, Ming - Wei and Toutanova, Kristina},
keywords = {Computation and Language (cs.CL), Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
📦 模型信息
属性 |
详情 |
支持语言 |
英语、法语、罗马尼亚语、德语、多语言 |
任务类型 |
视觉问答 |
推理功能 |
否 |
许可证 |
Apache 2.0 |
