🚀 带有DINOv2主干的DPT模型
本项目提供了一个带有DINOv2主干的DPT(Dense Prediction Transformer)模型,可用于强大的深度估计任务。该模型结合了DPT框架和DINOv2的优势,为视觉领域的深度估计问题提供了有效的解决方案。
🚀 快速开始
使用Transformers库调用模型
以下是使用transformers
库调用该模型进行深度估计的示例代码:
from transformers import AutoImageProcessor, DPTForDepthEstimation
import torch
import numpy as np
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
image_processor = AutoImageProcessor.from_pretrained("facebook/dpt-dinov2-giant-kitti")
model = DPTForDepthEstimation.from_pretrained("facebook/dpt-dinov2-giant-kitti")
inputs = image_processor(images=image, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
predicted_depth = outputs.predicted_depth
prediction = torch.nn.functional.interpolate(
predicted_depth.unsqueeze(1),
size=image.size[::-1],
mode="bicubic",
align_corners=False,
)
output = prediction.squeeze().cpu().numpy()
formatted = (output * 255 / np.max(output)).astype("uint8")
depth = Image.fromarray(formatted)
✨ 主要特性
- 强大的深度估计能力:使用DPT框架和DINOv2作为主干,能够实现高效准确的深度估计。
- 易于使用:可通过
transformers
库轻松调用,方便集成到各种项目中。
📚 详细文档
模型详情
DPT(Dense Prediction Transformer)模型采用了DINOv2作为主干,该模型由Oquab等人在论文DINOv2: Learning Robust Visual Features without Supervision中提出。
DPT架构。取自 原始论文。
参考资源
模型使用
预期用途
该模型旨在展示使用DPT框架并以DINOv2作为主干可以得到一个强大的深度估计器。
BibTeX引用信息
@misc{oquab2023dinov2,
title={DINOv2: Learning Robust Visual Features without Supervision},
author={Maxime Oquab and Timothée Darcet and Théo Moutakanni and Huy Vo and Marc Szafraniec and Vasil Khalidov and Pierre Fernandez and Daniel Haziza and Francisco Massa and Alaaeldin El-Nouby and Mahmoud Assran and Nicolas Ballas and Wojciech Galuba and Russell Howes and Po-Yao Huang and Shang-Wen Li and Ishan Misra and Michael Rabbat and Vasu Sharma and Gabriel Synnaeve and Hu Xu and Hervé Jegou and Julien Mairal and Patrick Labatut and Armand Joulin and Piotr Bojanowski},
year={2023},
eprint={2304.07193},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
📄 许可证
本项目采用Apache-2.0许可证。