# 単眼深度推定

Distill Any Depth Large Hf
MIT
Distill-Any-Depthは新しいSOTA単眼深度推定モデルで、知識蒸留アルゴリズムを用いて訓練されています。
3Dビジョン Transformers
D
xingyang1
2,322
2
Distill Any Depth Small Hf
MIT
Distill-Any-Depthは知識蒸留アルゴリズムで訓練されたSOTA単眼深度推定モデルで、効率的かつ正確に深度推定が可能です。
3Dビジョン Transformers
D
xingyang1
1,214
3
Depthmaster
Apache-2.0
DepthMasterは、拡散モデルの生成特徴を判別式深度推定タスクに適合させるように調整された単一ステップの拡散モデルです。
3Dビジョン 英語
D
zysong212
50
9
Coreml DepthPro
DepthPro は単眼深度推定モデルで、単一の画像から深度を予測できます。
3Dビジョン
C
KeighBee
17
4
Depthpro ONNX
DepthProは、単一画像からシーンの深度情報を予測する視覚モデルです。
3Dビジョン Transformers
D
onnx-community
146
10
Marigold E2e Ft Depth
Apache-2.0
Apache-2.0ライセンスに基づく単眼深度推定モデルで、野外シーンにおけるゼロショット深度推定タスクに適しています。
3Dビジョン
M
GonzaloMG
1,467
6
Depth
Depth Anything V2は現在最も強力な単眼深度推定モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされており、より細かいディテールとより強力なロバスト性を備えています。
3Dビジョン Transformers
D
scenario-labs
75
0
Depth Anything V2 Large Hf
Depth Anything V2は現在最も強力な単眼深度推定(MDE)モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされており、より細かいディテールと強力なロバスト性を備えています。
3Dビジョン Transformers
D
depth-anything
83.99k
19
Depth Anything V2 Base Hf
Depth Anything V2は現在最も強力な単眼深度推定モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされており、より細かいディテールとより強力なロバスト性を備えています。
3Dビジョン Transformers
D
depth-anything
47.73k
1
Depth Anything V2 Small Hf
Apache-2.0
Depth Anything V2は現在最も強力な単眼深度推定モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされ、微細なディテールとロバスト性を備えています。
3Dビジョン Transformers
D
depth-anything
438.72k
15
Depth Anything V2 Base
Depth-Anything-V2-Base は ONNX 形式に基づく深度推定モデルで、Transformers.js に適応し、Web 端末で画像深度推定を行うことができます。
3Dビジョン Transformers
D
onnx-community
56
0
Depth Anything V2 Large
Depth Anything V2は現在最も強力な単眼深度推定モデルで、大量の合成画像と実画像で訓練され、精密な深度詳細と高い頑健性を提供します。
3Dビジョン 英語
D
depth-anything
130.54k
94
Depth Anything V2 Base
Depth Anything V2は現在最も強力な単眼深度推定(MDE)モデルで、59.5万枚の合成注釈画像と6200万枚以上の実写無注釈画像でトレーニングされています
3Dビジョン 英語
D
depth-anything
66.95k
17
Depth Anything V2 Small
Apache-2.0
Depth Anything V2 は現在最も性能の高い単眼深度推定モデルで、大規模な合成画像と実画像でトレーニングされており、V1バージョンと比較してより細かい詳細を捕捉でき、よりロバストです。
3Dビジョン 英語
D
depth-anything
55.22k
64
Coreml Depth Anything Small
Apache-2.0
Depth AnythingはDPTアーキテクチャとDINOv2バックボーンネットワークに基づく深度推定モデルで、約6200万枚の画像で訓練され、相対的および絶対的深度推定タスクで最先端の結果を達成しています。
3Dビジョン
C
apple
51
36
Zoedepth Nyu Kitti
MIT
ZoeDepthはNYUとKITTIデータセットでファインチューニングされた深度推定モデルで、実際の測定単位で深度値を推定できます。
3Dビジョン Transformers
Z
Intel
20.32k
5
Zoedepth Kitti
MIT
ZoeDepthは単眼深度推定のための視覚モデルで、KITTIデータセットでファインチューニングされており、ゼロショット転移可能なメトリック深度推定を実現します。
3Dビジョン Transformers
Z
Intel
7,037
2
Zoedepth Nyu
MIT
ZoeDepthは単眼深度推定のためのモデルで、特にNYUデータセットでファインチューニングされており、ゼロショット転移とメトリック深度推定が可能です。
3Dビジョン Transformers
Z
Intel
1,279
1
Marigold Depth Lcm V1 0
Apache-2.0
潜在整合性蒸留法を用いてファインチューニングされた単眼深度推定モデルで、単一画像から深度マップを生成
3Dビジョン 英語
M
prs-eth
22.45k
55
Depth Anything Large Hf
Transformers.jsベースの深度推定モデルONNX版、ウェブアプリケーション向け
3Dビジョン Transformers
D
Xenova
19
3
Depth Anything Base Hf
Transformers.jsベースの深度推定モデルで、ONNX重みバージョンに適合し、画像から深度情報を予測します。
3Dビジョン Transformers
D
Xenova
53
0
Depth Anything Small Hf
ONNX形式の小型深度推定モデル、Transformers.jsフレームワークに適応し、ウェブ端末での深度マップ予測に適しています
3Dビジョン Transformers
D
Xenova
4,829
8
Depth Anything Vitl14
Depth Anything は大規模なラベルなしデータを活用して深度推定の可能性を解き放つ強力な深度推定モデルです。
3Dビジョン Transformers
D
LiheYoung
16.70k
42
Depth Anything Vitb14
Depth Anythingは大規模なラベルなしデータで訓練された深度推定モデルで、単一画像から深度情報を予測できます。
3Dビジョン Transformers
D
LiheYoung
7,152
3
Depth Anything Vits14
Depth Anythingは大規模なラベルなしデータを活用して性能を向上させた深度推定モデルで、単眼深度推定タスクに適しています。
3Dビジョン Transformers
D
LiheYoung
8,130
6
Sentis MiDaS
MIT
MiDaSモデルをONNX形式に変換し、Unity Sentisで単眼深度推定を行う
3Dビジョン
S
julienkay
31
5
Dpt Swinv2 Large 384
MIT
SwinV2バックボーンネットワークに基づくDPTモデルで、単眼深度推定用に140万枚の画像でトレーニング
3Dビジョン Transformers
D
Intel
84
0
Dpt Swinv2 Tiny 256
MIT
SwinV2バックボーンネットワークに基づくDPTモデルで、単眼深度推定用に140万枚の画像でトレーニングされました。
3Dビジョン Transformers
D
Intel
2,285
9
Dpt Swinv2 Base 384
MIT
DPT (密な予測トランスフォーマー) モデルは140万枚の画像でトレーニングされ、単眼深度推定に使用されます。このモデルはSwinv2をバックボーンネットワークとして使用し、高精度な深度予測タスクに適しています。
3Dビジョン Transformers
D
Intel
182
0
Dpt Beit Base 384
MIT
DPTはBEiTバックボーンネットワークに基づく密集予測トランスフォーマーモデルで、単眼深度推定に使用され、140万枚の画像でトレーニングされています。
3Dビジョン Transformers
D
Intel
25.98k
1
Dpt Beit Large 384
MIT
BEiTバックボーンネットワークに基づく単眼深度推定モデルで、単一画像から詳細な深度情報を推測可能
3Dビジョン Transformers
D
Intel
135
0
Dpt Hybrid Midas
Apache-2.0
ビジョントランスフォーマー(ViT)に基づく単眼深度推定モデル、140万枚の画像でトレーニング
3Dビジョン Transformers
D
Intel
224.05k
94
Glpn Nyu
Apache-2.0
GLPNモデルはNYUv2データセットで訓練され、単眼深度推定に使用され、グローバルとローカルのパスネットワークを組み合わせて高精度な深度予測を実現します。
3Dビジョン Transformers
G
vinvino02
7,699
22
Glpn Kitti
Apache-2.0
GLPNは単眼深度推定のためのモデルで、SegFormerをバックボーンとして使用し、軽量ヘッドを追加して深度予測を行います。
3Dビジョン Transformers
G
vinvino02
3,401
7
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase