🚀 深度任意模型V2(针对度量深度估计进行微调) - Transformers版本
本模型是 深度任意模型V2 的微调版本,用于使用合成的虚拟KITTI数据集进行室外度量深度估计。
该模型检查点与transformers库兼容。
深度任意模型V2由李和杨等人在 同名论文 中提出。它采用了与原始深度任意模型相同的架构,但使用了合成数据和更大容量的教师模型,以实现更精细、更稳健的深度预测。这个针对度量深度估计的微调版本首次发布于 此仓库。
✨ 主要特性
- 分别发布了适用于室内和室外场景的三种规模的 六个度量深度模型,具体信息如下:
| 基础模型 | 参数 | 室内(Hypersim) | 室外(虚拟KITTI 2) |
|:-|-:|:-:|:-:|
| Depth-Anything-V2-Small | 2480万 | 模型卡片 | 模型卡片 |
| Depth-Anything-V2-Base | 9750万 | 模型卡片 | 模型卡片 |
| Depth-Anything-V2-Large | 3.353亿 | 模型卡片 | 模型卡片 |
📚 详细文档
模型描述
深度任意模型V2利用了 DPT 架构,并使用 DINOv2 作为骨干网络。
该模型在约60万个合成标记图像和约6200万个真实未标记图像上进行训练,在相对和绝对深度估计方面均取得了最先进的成果。

深度任意模型概述。取自 原论文。
预期用途和限制
你可以使用原始模型进行零样本深度估计等任务。请查看 模型中心 以查找其他感兴趣任务的版本。
📦 安装指南
要求
transformers>=4.45.0
或者,使用从源代码安装的 transformers
最新版本:
pip install git+https://github.com/huggingface/transformers
💻 使用示例
基础用法
以下是如何使用此模型进行零样本深度估计的示例:
from transformers import pipeline
from PIL import Image
import requests
pipe = pipeline(task="depth-estimation", model="depth-anything/Depth-Anything-V2-Metric-Outdoor-Base-hf")
url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)
depth = pipe(image)["depth"]
高级用法
你也可以使用模型和处理器类:
from transformers import AutoImageProcessor, AutoModelForDepthEstimation
import torch
import numpy as np
from PIL import Image
import requests
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
image_processor = AutoImageProcessor.from_pretrained("depth-anything/Depth-Anything-V2-Metric-Outdoor-Base-hf")
model = AutoModelForDepthEstimation.from_pretrained("depth-anything/Depth-Anything-V2-Metric-Outdoor-Base-hf")
inputs = image_processor(images=image, return_tensors="pt")
with torch.no_grad():
outputs = model(**inputs)
predicted_depth = outputs.predicted_depth
prediction = torch.nn.functional.interpolate(
predicted_depth.unsqueeze(1),
size=image.size[::-1],
mode="bicubic",
align_corners=False,
)
更多代码示例,请参考 文档。
📄 许可证
引用信息
@article{depth_anything_v2,
title={Depth Anything V2},
author={Yang, Lihe and Kang, Bingyi and Huang, Zilong and Zhao, Zhen and Xu, Xiaogang and Feng, Jiashi and Zhao, Hengshuang},
journal={arXiv:2406.09414},
year={2024}
}
@inproceedings{depth_anything_v1,
title={Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data},
author={Yang, Lihe and Kang, Bingyi and Huang, Zilong and Xu, Xiaogang and Feng, Jiashi and Zhao, Hengshuang},
booktitle={CVPR},
year={2024}
}