# DINOv2預訓練

Dinov2 With Registers Base Imagenet1k 1 Layer
Apache-2.0
基於Transformer架構的視覺變換器模型,通過DINOv2方法訓練並引入寄存器機制,解決了傳統ViT模型的偽影問題
圖像分類 Transformers
D
facebook
693
2
Virchow
Apache-2.0
Virchow是基於150萬張全切片組織病理學圖像的自監督視覺Transformer預訓練模型,可作為切片級特徵提取器用於計算病理學下游任務。
圖像分類
V
paige-ai
5,121
57
Vit Small Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
一種帶有寄存器的視覺Transformer(ViT)圖像特徵模型,採用自監督DINOv2方法在LVD-142M數據集上預訓練。
圖像分類 Transformers
V
timm
15.98k
5
Vit Large Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
帶有寄存器的視覺變換器(ViT)圖像特徵模型,使用自監督的DINOv2方法在LVD-142M數據集上進行預訓練。
圖像分類 Transformers
V
timm
119.48k
7
Vit Giant Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
一個帶有寄存器的視覺Transformer(ViT)圖像特徵模型,採用自監督DINOv2方法在LVD-142M數據集上預訓練。
圖像分類 Transformers
V
timm
917
1
Vit Base Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
一個帶有寄存器的視覺變換器(ViT)圖像特徵模型,使用自監督的DINOv2方法在LVD-142M數據集上進行預訓練。
圖像分類 Transformers
V
timm
40.95k
10
Vit Small Patch14 Dinov2.lvd142m
Apache-2.0
基於視覺Transformer(ViT)的圖像特徵模型,採用自監督DINOv2方法在LVD-142M數據集上預訓練
圖像分類 Transformers
V
timm
35.85k
3
Vit Large Patch14 Dinov2.lvd142m
Apache-2.0
基於視覺Transformer(ViT)的自監督圖像特徵模型,採用DINOv2方法在LVD-142M數據集上預訓練,適用於圖像分類和特徵提取任務。
圖像分類 Transformers
V
timm
32.01k
11
Vit Giant Patch14 Dinov2.lvd142m
Apache-2.0
基於視覺Transformer(ViT)的巨型圖像特徵提取模型,採用自監督DINOv2方法在LVD-142M數據集上預訓練
圖像分類 Transformers
V
timm
6,911
0
Vit Base Patch14 Dinov2.lvd142m
Apache-2.0
基於Vision Transformer(ViT)的圖像特徵模型,採用自監督DINOv2方法在LVD-142M數據集上預訓練
圖像分類 Transformers
V
timm
50.71k
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase