2025年最佳 177 款3D視覺工具

Hunyuan3d 2
其他
騰訊推出的先進3D合成系統,支持從圖像或文本生成高分辨率帶紋理3D資產
3D視覺 支持多種語言
H
tencent
490.00k
1,314
TRELLIS Image Large
MIT
TRELLIS Image Large是一個大型3D生成模型TRELLIS的圖像條件版本,能夠依據輸入圖像生成3D內容。
3D視覺 英語
T
microsoft
463.44k
520
Depth Anything V2 Small Hf
Apache-2.0
Depth Anything V2是目前最強大的單目深度估計模型,基於59.5萬張合成標註圖像和6200萬+真實無標註圖像訓練而成,具有精細細節和魯棒性。
3D視覺 Transformers
D
depth-anything
438.72k
15
Dpt Large
Apache-2.0
基於視覺變換器(ViT)的單目深度估計模型,在140萬張圖像上訓練,適用於零樣本深度預測任務。
3D視覺 Transformers
D
Intel
364.62k
187
Dpt Hybrid Midas
Apache-2.0
基於視覺變換器(ViT)的單目深度估計模型,在140萬張圖像上訓練
3D視覺 Transformers
D
Intel
224.05k
94
VGGT 1B
VGGT是一種前饋神經網絡,能夠直接從場景的一個、幾個或數百個視圖中,在數秒內推斷出所有關鍵的3D屬性。
3D視覺 英語
V
facebook
196.31k
40
Depth Anything Large Hf
Apache-2.0
Depth Anything是基於DPT架構和DINOv2骨幹網絡的深度估計模型,在約6200萬張圖像上訓練,在相對和絕對深度估計任務中取得了最先進的結果。
3D視覺 Transformers
D
LiheYoung
147.17k
51
Depth Anything V2 Large
Depth Anything V2 是目前最強大的單目深度估計模型,基於大量合成和真實圖像訓練,提供精細的深度細節和高魯棒性。
3D視覺 英語
D
depth-anything
130.54k
94
Mast3r ViTLarge BaseDecoder 512 Catmlpdpt Metric
MASt3R是一個基於ViT架構的圖像轉3D模型,能夠實現圖像與3D空間的匹配
3D視覺
M
naver
116.60k
15
Depth Anything Small Hf
Apache-2.0
Depth Anything是基於DPT架構的深度估計模型,採用DINOv2骨幹網絡,在約6200萬張圖像上訓練,在相對和絕對深度估計任務上表現優異。
3D視覺 Transformers
D
LiheYoung
97.89k
29
Marigold Depth V1 0
Apache-2.0
基於穩定擴散模型微調的單目圖像深度估計模型,具有仿射不變性,適用於自然場景的深度預測
3D視覺 英語
M
prs-eth
92.50k
127
Depth Anything V2 Large Hf
Depth Anything V2是目前最強大的單目深度估計(MDE)模型,基於59.5萬張合成標註圖像和6200萬+真實無標註圖像訓練而成,具有更精細的細節和更強的穩健性。
3D視覺 Transformers
D
depth-anything
83.99k
19
Depth Anything V2 Base
Depth Anything V2是目前最強大的單目深度估計(MDE)模型,基於59.5萬張合成標註圖像與6200萬+真實無標註圖像訓練而成
3D視覺 英語
D
depth-anything
66.95k
17
Depth Anything V2 Small
Apache-2.0
Depth Anything V2 是目前性能最強的單目深度估計模型,基於大規模合成與真實圖像訓練,相比V1版本能捕捉更精細的細節且更魯棒。
3D視覺 英語
D
depth-anything
55.22k
64
Depthcrafter
其他
DepthCrafter是一個能夠為開放世界視頻生成時間上連貫的長深度序列的模型,具有精細的細節,無需額外的信息如相機姿態或光流。
3D視覺
D
tencent
55.08k
91
Depth Anything V2 Metric Indoor Large Hf
基於Depth Anything V2使用合成Hypersim數據集進行室內度量深度估計的微調版本,兼容transformers庫。
3D視覺 Transformers
D
depth-anything
47.99k
9
Depth Anything V2 Base Hf
Depth Anything V2 是目前最強大的單目深度估計模型,基於59.5萬張合成標註圖像和6200萬+真實無標註圖像訓練而成,具有更精細的細節和更強的魯棒性。
3D視覺 Transformers
D
depth-anything
47.73k
1
Dust3r ViTLarge BaseDecoder 512 Dpt
DUSt3R是一個用於從圖像輕鬆實現幾何3D視覺的模型,能夠從單張或多張圖像重建3D場景。
3D視覺
D
naver
46.93k
14
Lotus Depth G V1 0
Apache-2.0
Lotus是一個基於擴散模型的視覺基礎模型,專注於高質量的密集預測任務。
3D視覺
L
jingheya
33.45k
21
Dpt Beit Base 384
MIT
DPT是基於BEiT骨幹網絡的密集預測變換器模型,用於單目深度估計,在140萬張圖像上訓練。
3D視覺 Transformers
D
Intel
25.98k
1
Hunyuan3d 2mini
其他
騰訊混元3D 2mini是一個輕量高效的圖像轉3D模型,參數規模為6億,支持中英文輸入。
3D視覺 支持多種語言
H
tencent
23.22k
69
Marigold Depth Lcm V1 0
Apache-2.0
基於潛在一致性蒸餾方法微調的單目深度估計模型,用於從單張圖像生成深度圖
3D視覺 英語
M
prs-eth
22.45k
55
Zoedepth Nyu Kitti
MIT
ZoeDepth是基於NYU和KITTI數據集微調的深度估計模型,能夠以實際度量單位估計深度值。
3D視覺 Transformers
Z
Intel
20.32k
5
Yoso Normal V0 3
Apache-2.0
通過降低擴散方差實現穩定銳利的法線貼圖生成的模型
3D視覺
Y
Stable-X
20.30k
1
Trellis Normal V0 1
MIT
TRELLIS的改進版,支持將2D圖像轉換為3D模型,特別支持法線條件化處理。
3D視覺 英語
T
Stable-X
19.31k
10
Triposr
MIT
TripoSR是由Stability AI與Tripo AI聯合開發的快速前饋式3D生成模型,專注於從單張圖像快速重建3D模型。
3D視覺
T
stabilityai
19.25k
545
Depth Anything Vitl14
Depth Anything 是一個強大的深度估計模型,利用大規模無標籤數據釋放深度估計的潛力。
3D視覺 Transformers
D
LiheYoung
16.70k
42
Fast3r ViT Large 512
其他
fast3r是一個專注於圖像轉3D的模型,由Facebook Research開發。
3D視覺
F
jedyang97
16.34k
20
Depthpro Hf
DepthPro是一個用於零樣本度量單目深度估計的基礎模型,能夠生成高分辨率、高精度的深度圖。
3D視覺 Transformers
D
apple
13.96k
52
Openlrm Mix Base 1.1
OpenLRM是論文LRM的開源實現,能夠從單張圖像生成3D模型,包含不同規模的多個版本。
3D視覺 Transformers
O
zxhezexin
10.25k
6
Hunyuan3d 2mv
其他
混元3D-2多視圖版是基於混元3D-2微調的版本,支持多視角控制形狀生成的高分辨率紋理3D資產生成模型。
3D視覺 支持多種語言
H
tencent
9,170
371
Depth Anything V2 Metric Indoor Base Hf
基於Depth Anything V2模型,針對室內度量深度估計任務使用Hypersim合成數據集微調的版本
3D視覺 Transformers
D
depth-anything
9,056
1
Marigold Normals V0 1
Apache-2.0
基於穩定擴散模型微調的單目圖像法線估計模型,可從單張RGB圖像預測表面法線圖
3D視覺 英語
M
prs-eth
8,845
4
Depth Anything Vits14
Depth Anything是一種深度估計模型,利用大規模無標記數據提升性能,適用於單目深度估計任務。
3D視覺 Transformers
D
LiheYoung
8,130
6
Glpn Nyu
Apache-2.0
GLPN模型在NYUv2數據集上訓練,用於單目深度估計,結合全局和局部路徑網絡實現高精度深度預測。
3D視覺 Transformers
G
vinvino02
7,699
22
Monst3r PO TA S W ViTLarge BaseDecoder 512 Dpt
MonST3R是一種在運動存在下估算幾何形狀的簡單方法,能夠從圖像中重建3D場景。
3D視覺
M
Junyi42
7,641
17
Depth Anything Vitb14
Depth Anything 是一個基於大規模無標籤數據訓練的深度估計模型,能夠從單張圖像中預測深度信息。
3D視覺 Transformers
D
LiheYoung
7,152
3
Yoso Normal V1 8 1
Apache-2.0
通過降低擴散方差實現穩定銳利的法線貼圖生成的模型
3D視覺
Y
Stable-X
7,080
3
Zoedepth Kitti
MIT
ZoeDepth是一個用於單目深度估計的視覺模型,在KITTI數據集上進行了微調,能夠實現零樣本遷移的度量深度估計。
3D視覺 Transformers
Z
Intel
7,037
2
Shap E
MIT
Shap-E是一種基於擴散過程的文本生成3D圖像模型,能夠根據文本提示生成可渲染為紋理網格和神經輻射場的3D資產。
3D視覺
S
openai
6,109
234
Theia Base Patch16 224 Cddsv
其他
忒伊亞是一個面向機器人學習的視覺基礎模型,通過蒸餾多個視覺基礎模型獲得豐富的視覺表徵能力
3D視覺 Transformers
T
theaiinstitute
5,404
2
Triposg
MIT
TripoSG是基於大規模修正流模型的高保真3D形狀合成基礎模型,能夠實現單圖像到高質量3D網格的生成。
3D視覺
T
VAST-AI
5,402
101
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase