Depth Anything V2 Metric Indoor Large Hf
基於Depth Anything V2使用合成Hypersim數據集進行室內度量深度估計的微調版本,兼容transformers庫。
3D視覺
Transformers

D
depth-anything
47.99k
9
Depth Anything V2 Metric Indoor Base Hf
基於Depth Anything V2模型,針對室內度量深度估計任務使用Hypersim合成數據集微調的版本
3D視覺
Transformers

D
depth-anything
9,056
1
Depth Anything V2 Metric Indoor Small Hf
基於Depth Anything V2針對室內度量深度估計任務進行微調的模型,使用合成數據集Hypersim訓練,兼容transformers庫。
3D視覺
Transformers

D
depth-anything
750
2
Depth Anything V2 Metric Outdoor Small Hf
基於Depth Anything V2的微調版本,專為戶外場景度量深度估計設計,使用合成數據集Virtual KITTI進行訓練。
3D視覺
Transformers

D
depth-anything
459
1
Depth Anything V2 Metric Outdoor Base Hf
基於Depth Anything V2使用合成Virtual KITTI數據集針對室外度量深度估計任務微調的版本,兼容transformers庫
3D視覺
Transformers

D
depth-anything
436
0
Depth Anything V2 Metric Outdoor Large Hf
Apache-2.0
基於Depth Anything V2針對戶外度量深度估計任務進行微調的版本,使用合成數據集Virtual KITTI進行訓練
3D視覺
Transformers

D
depth-anything
3,662
6
Coreml Depth Anything V2 Small
Apache-2.0
Depth Anything V2 是基於 DPT 架構的深度估計模型,採用 DINOv2 骨幹網絡,通過大規模合成和真實數據訓練,實現精細且魯棒的深度預測。
3D視覺
C
apple
67
58
Coreml Depth Anything Small
Apache-2.0
Depth Anything 是一種基於 DPT 架構和 DINOv2 骨幹網絡的深度估計模型,在約 6200 萬張圖像上訓練,在相對和絕對深度估計任務中取得最先進結果。
3D視覺
C
apple
51
36
Zoedepth Nyu
MIT
ZoeDepth是一個用於單目深度估計的模型,特別在NYU數據集上進行了微調,能夠實現零樣本遷移和度量深度估計。
3D視覺
Transformers

Z
Intel
1,279
1
Depth Anything Large Hf
Apache-2.0
Depth Anything是基於DPT架構和DINOv2骨幹網絡的深度估計模型,在約6200萬張圖像上訓練,在相對和絕對深度估計任務中取得了最先進的結果。
3D視覺
Transformers

D
LiheYoung
147.17k
51
Depth Anything Base Hf
Apache-2.0
Depth Anything是一種基於DPT架構和DINOv2主幹網絡的深度估計模型,在約6200萬張圖像上訓練,實現了零樣本深度估計的先進性能。
3D視覺
Transformers

D
LiheYoung
4,101
10
Depth Anything Small Hf
Apache-2.0
Depth Anything是基於DPT架構的深度估計模型,採用DINOv2骨幹網絡,在約6200萬張圖像上訓練,在相對和絕對深度估計任務上表現優異。
3D視覺
Transformers

D
LiheYoung
97.89k
29
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98