Lotus Depth G V2 1 Disparity
Apache-2.0
蓮花模型系列中的深度估計模型,採用擴散模型技術實現高質量密集預測
3D視覺
L
jingheya
517
2
Lotus Depth G V2 0 Disparity
Apache-2.0
Lotus是一個基於擴散模型的視覺基礎模型,專注於高質量密集預測任務,如深度估計。相比前一版本,本模型在視差空間(逆深度)進行訓練,實現了更優性能和更穩定的視頻深度估計。
3D視覺
L
jingheya
182
4
Lotus Depth D V2 0 Disparity
Apache-2.0
Lotus是一個基於擴散模型的視覺基礎模型,專注於高質量密集預測任務,特別是深度估計。相比前一版本,本模型採用視差空間(逆深度)訓練,實現了更優性能和更穩定的視頻深度估計。
3D視覺
L
jingheya
592
3
Dpt Swinv2 Base 384
MIT
DPT (密集預測變換器) 模型在140萬張圖像上訓練,用於單目深度估計。該模型使用Swinv2作為骨幹網絡,適用於高精度深度預測任務。
3D視覺
Transformers

D
Intel
182
0
Dpt Dinov2 Large Kitti
Apache-2.0
該模型採用DINOv2作為骨幹網絡的DPT框架,專注於深度估計任務。
3D視覺
Transformers

D
facebook
26
2
Dpt Dinov2 Base Nyu
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺
Transformers

D
facebook
146
0
Dpt Dinov2 Base Kitti
Apache-2.0
使用DINOv2作為骨幹網絡的DPT框架,用於深度估計任務
3D視覺
Transformers

D
facebook
446
2
Dpt Dinov2 Small Kitti
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺
Transformers

D
facebook
710
7
Dpt Dinov2 Small Nyu
Apache-2.0
採用DINOv2作為骨幹網絡的DPT模型,用於深度估計任務。
3D視覺
Transformers

D
facebook
23
2
Pvt Tiny 224
Apache-2.0
金字塔視覺變換器(PVT)是一種基於變換器架構的視覺模型,專為圖像分類任務設計。
圖像分類
Transformers

P
Xrenya
25
0
Dpt Hybrid Midas
Apache-2.0
基於視覺變換器(ViT)的單目深度估計模型,在140萬張圖像上訓練
3D視覺
Transformers

D
Intel
224.05k
94
Dpt Large Ade
Apache-2.0
這是一個基於ADE20k數據集微調的密集預測變換器(DPT)模型,用於語義分割任務。
圖像分割
Transformers

D
Intel
3,497
8
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98