# 密集預測

Lotus Depth G V2 1 Disparity
Apache-2.0
蓮花模型系列中的深度估計模型,採用擴散模型技術實現高質量密集預測
3D視覺
L
jingheya
517
2
Lotus Depth G V2 0 Disparity
Apache-2.0
Lotus是一個基於擴散模型的視覺基礎模型,專注於高質量密集預測任務,如深度估計。相比前一版本,本模型在視差空間(逆深度)進行訓練,實現了更優性能和更穩定的視頻深度估計。
3D視覺
L
jingheya
182
4
Lotus Depth D V2 0 Disparity
Apache-2.0
Lotus是一個基於擴散模型的視覺基礎模型,專注於高質量密集預測任務,特別是深度估計。相比前一版本,本模型採用視差空間(逆深度)訓練,實現了更優性能和更穩定的視頻深度估計。
3D視覺
L
jingheya
592
3
Dpt Swinv2 Base 384
MIT
DPT (密集預測變換器) 模型在140萬張圖像上訓練,用於單目深度估計。該模型使用Swinv2作為骨幹網絡,適用於高精度深度預測任務。
3D視覺 Transformers
D
Intel
182
0
Dpt Dinov2 Large Kitti
Apache-2.0
該模型採用DINOv2作為骨幹網絡的DPT框架,專注於深度估計任務。
3D視覺 Transformers
D
facebook
26
2
Dpt Dinov2 Base Nyu
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺 Transformers
D
facebook
146
0
Dpt Dinov2 Base Kitti
Apache-2.0
使用DINOv2作為骨幹網絡的DPT框架,用於深度估計任務
3D視覺 Transformers
D
facebook
446
2
Dpt Dinov2 Small Kitti
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺 Transformers
D
facebook
710
7
Dpt Dinov2 Small Nyu
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺 Transformers
D
facebook
23
2
Pvt Tiny 224
Apache-2.0
金字塔視覺變換器(PVT)是一種基於變換器架構的視覺模型,專為圖像分類任務設計。
圖像分類 Transformers
P
Xrenya
25
0
Dpt Hybrid Midas
Apache-2.0
基於視覺變換器(ViT)的單目深度估計模型,在140萬張圖像上訓練
3D視覺 Transformers
D
Intel
224.05k
94
Dpt Large Ade
Apache-2.0
這是一個基於ADE20k數據集微調的密集預測變換器(DPT)模型,用於語義分割任務。
圖像分割 Transformers
D
Intel
3,497
8
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase