2025年最佳 1348 款圖像分類工具

Nsfw Image Detection
Apache-2.0
基於ViT架構的NSFW圖像分類模型,通過監督學習在ImageNet-21k數據集上預訓練,並在80,000張圖像上微調,用於區分正常和NSFW內容。
圖像分類 Transformers
N
Falconsai
82.4M
588
Fairface Age Image Detection
Apache-2.0
基於Vision Transformer架構的圖像分類模型,在ImageNet-21k數據集上預訓練,適用於多類別圖像分類任務
圖像分類 Transformers
F
dima806
76.6M
10
Dinov2 Small
Apache-2.0
基於DINOv2方法訓練的小尺寸視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類 Transformers
D
facebook
5.0M
31
Vit Base Patch16 224
Apache-2.0
基於ImageNet-21k預訓練和ImageNet微調的視覺變換器模型,用於圖像分類任務
圖像分類
V
google
4.8M
775
Vit Base Patch16 224 In21k
Apache-2.0
基於ImageNet-21k數據集預訓練的視覺Transformer模型,用於圖像分類任務。
圖像分類
V
google
2.2M
323
Dinov2 Base
Apache-2.0
基於DINOv2方法訓練的視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類 Transformers
D
facebook
1.9M
126
Gender Classification
一個基於PyTorch和HuggingPics構建的圖像分類模型,用於識別圖像中的性別
圖像分類 Transformers
G
rizvandwiki
1.8M
48
Vit Base Nsfw Detector
Apache-2.0
基於Vision Transformer (ViT)架構的圖像分類模型,專門用於檢測圖像是否包含NSFW(不安全)內容。
圖像分類 Transformers
V
AdamCodd
1.2M
47
Vit Hybrid Base Bit 384
Apache-2.0
混合視覺變換器(ViT)模型結合了卷積網絡和Transformer架構,用於圖像分類任務,在ImageNet上表現出色。
圖像分類 Transformers
V
google
992.28k
6
Gender Classification 2
這是一個基於PyTorch框架和HuggingPics工具生成的圖像分類模型,專門用於性別分類任務。
圖像分類 Transformers
G
rizvandwiki
906.98k
32
Mobilevit Small
其他
MobileViT是一種輕量級、低延遲的視覺Transformer模型,結合了CNN和Transformer的優勢,適用於移動端設備。
圖像分類 Transformers
M
apple
894.23k
65
Phikon
其他
Phikon是基於iBOT訓練的組織病理學自監督學習模型,主要用於從組織學圖像塊中提取特徵。
圖像分類 Transformers 英語
P
owkin
741.63k
30
Vit Tiny Patch16 224
Apache-2.0
基於timm倉庫轉換的ViT-Tiny模型,適用於圖像分類任務,使用方法與ViT-base模型一致
圖像分類 Transformers
V
WinKawaks
692.49k
21
Dinov2 Large
Apache-2.0
基於DINOv2方法訓練的視覺Transformer模型,通過自監督學習從海量圖像數據中提取魯棒視覺特徵
圖像分類 Transformers
D
facebook
558.78k
79
Beit Base Patch16 224 Pt22k Ft22k
Apache-2.0
BEiT是一種基於視覺Transformer(ViT)的圖像分類模型,通過自監督方式在ImageNet-22k上預訓練,並在相同數據集上微調。
圖像分類
B
microsoft
546.85k
76
Vit Small Patch16 224
Apache-2.0
基於timm代碼庫轉換的ViT-tiny模型,適用於圖像分類任務
圖像分類 Transformers
V
WinKawaks
447.70k
18
Rad Dino
其他
基於自監督學習DINOv2訓練的視覺Transformer模型,專門用於編碼胸部X光影像
圖像分類 Transformers
R
microsoft
411.96k
48
Swinv2 Tiny Patch4 Window16 256
Apache-2.0
Swin Transformer v2 是一種視覺Transformer模型,通過分層特徵圖和局部窗口自注意力機制實現高效的圖像分類。
圖像分類 Transformers
S
microsoft
403.69k
5
Swin Base Patch4 Window7 224
Apache-2.0
Swin Transformer是一種基於移動窗口的分層視覺Transformer,適用於圖像分類任務。
圖像分類 Transformers
S
microsoft
281.49k
15
Efficientnet B2
Apache-2.0
EfficientNet是一種移動端友好的純卷積模型,通過複合係數統一縮放深度/寬度/分辨率維度,在圖像分類任務中表現優異。
圖像分類 Transformers
E
google
276.94k
2
Resnet 50
Apache-2.0
ResNet-50是基於ImageNet-1k預訓練的殘差網絡模型,採用v1.5架構改進,適用於圖像分類任務。
圖像分類
R
microsoft
273.80k
407
Plant Disease Detection Project
其他
MobileNet V2是一種輕量級的卷積神經網絡,專為移動設備設計,在延遲、模型大小和準確性之間取得平衡。
圖像分類 Transformers
P
Diginsa
242.43k
4
Beit Large Patch16 224
Apache-2.0
BEiT是一種基於視覺Transformer(ViT)架構的圖像分類模型,通過自監督學習在ImageNet-21k上預訓練,並在ImageNet-1k上微調。
圖像分類
B
microsoft
222.46k
1
Prov Gigapath
Apache-2.0
Prov-GigaPath是一個基於真實世界數據的數字病理學全切片基礎模型,用於提取病理切片的圖塊級和切片級特徵。
圖像分類
P
prov-gigapath
193.45k
131
Vit Large Patch16 224
Apache-2.0
基於Transformer架構的大規模圖像分類模型,在ImageNet-21k和ImageNet-1k數據集上預訓練和微調
圖像分類
V
google
188.47k
30
Skin Type
一個用於分類人類皮膚類型的圖像分類模型,致力於實現公平性,確保模型在所有膚色上都能正確表現。
圖像分類 Transformers
S
driboune
182.21k
3
Vit Large Patch16 384
Apache-2.0
視覺變換器(ViT)是一種基於變換器架構的圖像分類模型,先在ImageNet-21k上預訓練,後在ImageNet上微調。
圖像分類
V
google
161.29k
12
Nsfw Image Detection 384
Apache-2.0
輕量級NSFW圖像檢測模型,準確率98.56%,體積僅為同類模型的1/18-1/20
圖像分類
N
Marqo
158.92k
21
Deit Base Patch16 224
Apache-2.0
DeiT是一種通過注意力機制訓練的數據高效圖像Transformer模型,在ImageNet-1k數據集上以224x224分辨率進行預訓練和微調。
圖像分類 Transformers
D
facebook
152.63k
13
Resnet 18
Apache-2.0
基於ImageNet-1k訓練的ResNet模型,採用殘差連接結構,支持圖像分類任務
圖像分類 Transformers
R
microsoft
133.01k
52
Deepfake Vs Real Image Detection
Apache-2.0
基於Vision Transformer架構的圖像分類模型,用於檢測真實圖像與AI生成的偽造圖像。
圖像分類 Transformers
D
dima806
129.66k
27
Dino Vitb16
Apache-2.0
基於DINO自監督方法訓練的視覺Transformer模型,採用ViT架構,在ImageNet-1k數據集上預訓練。
圖像分類 Transformers
D
facebook
122.46k
108
Vit Large Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
帶有寄存器的視覺變換器(ViT)圖像特徵模型,使用自監督的DINOv2方法在LVD-142M數據集上進行預訓練。
圖像分類 Transformers
V
timm
119.48k
7
Vit Large Patch32 384
Apache-2.0
該視覺Transformer(ViT)模型先在ImageNet-21k數據集上預訓練,後在ImageNet數據集上微調,適用於圖像分類任務。
圖像分類
V
google
118.37k
16
Dinov2 Giant
Apache-2.0
採用DINOv2方法訓練的視覺Transformer模型,通過自監督學習提取圖像特徵
圖像分類 Transformers
D
facebook
117.56k
41
Dino Vits8
Apache-2.0
基於DINO方法自監督訓練的視覺Transformer模型,使用8x8圖像塊處理,適用於圖像特徵提取任務
圖像分類 Transformers
D
facebook
106.97k
12
Swin Tiny Patch4 Window7 224
Apache-2.0
Swin Transformer是一種分層視覺Transformer,通過局部窗口計算自注意力實現線性計算複雜度,適合圖像分類任務。
圖像分類 Transformers
S
microsoft
98.00k
42
Pedestrian Gender Recognition
Apache-2.0
該模型是基於BEiT架構在PETA數據集上微調的圖像分類模型,用於識別行人性別,準確率達91.07%。
圖像分類 Transformers
P
NTQAI
93.78k
15
Vit Large Patch16 224 In21k
Apache-2.0
基於ImageNet-21k數據集預訓練的視覺Transformer模型,適用於圖像特徵提取和下游任務微調。
圖像分類
V
google
92.63k
26
Vit Small Patch16 224.dino
Apache-2.0
基於視覺Transformer(ViT)的圖像特徵模型,採用自監督DINO方法訓練,適用於圖像分類和特徵提取任務。
圖像分類 Transformers
V
timm
70.62k
4
Mobilenet V2 1.0 224
其他
MobileNet V2 是一個輕量級的視覺模型,專為移動設備優化,在圖像分類任務上表現優異。
圖像分類 Transformers
M
google
69.47k
29
Nsfw Image Detector
Apache-2.0
基於Google Vision Transformer微調的NSFW(不適宜工作場所)內容檢測模型,可識別5類圖像內容
圖像分類 Transformers
N
LukeJacob2023
68.26k
17
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase