Nsfw Image Detection
Apache-2.0
基于ViT架构的NSFW图像分类模型,通过监督学习在ImageNet-21k数据集上预训练,并在80,000张图像上微调,用于区分正常和NSFW内容。
图像分类
Transformers

N
Falconsai
82.4M
588
Fairface Age Image Detection
Apache-2.0
基于Vision Transformer架构的图像分类模型,在ImageNet-21k数据集上预训练,适用于多类别图像分类任务
图像分类
Transformers

F
dima806
76.6M
10
Dinov2 Small
Apache-2.0
基于DINOv2方法训练的小尺寸视觉Transformer模型,通过自监督学习提取图像特征
图像分类
Transformers

D
facebook
5.0M
31
Vit Base Patch16 224
Apache-2.0
基于ImageNet-21k预训练和ImageNet微调的视觉变换器模型,用于图像分类任务
图像分类
V
google
4.8M
775
Vit Base Patch16 224 In21k
Apache-2.0
基于ImageNet-21k数据集预训练的视觉Transformer模型,用于图像分类任务。
图像分类
V
google
2.2M
323
Dinov2 Base
Apache-2.0
基于DINOv2方法训练的视觉Transformer模型,通过自监督学习提取图像特征
图像分类
Transformers

D
facebook
1.9M
126
Gender Classification
一个基于PyTorch和HuggingPics构建的图像分类模型,用于识别图像中的性别
图像分类
Transformers

G
rizvandwiki
1.8M
48
Vit Base Nsfw Detector
Apache-2.0
基于Vision Transformer (ViT)架构的图像分类模型,专门用于检测图像是否包含NSFW(不安全)内容。
图像分类
Transformers

V
AdamCodd
1.2M
47
Vit Hybrid Base Bit 384
Apache-2.0
混合视觉变换器(ViT)模型结合了卷积网络和Transformer架构,用于图像分类任务,在ImageNet上表现出色。
图像分类
Transformers

V
google
992.28k
6
Gender Classification 2
这是一个基于PyTorch框架和HuggingPics工具生成的图像分类模型,专门用于性别分类任务。
图像分类
Transformers

G
rizvandwiki
906.98k
32
Mobilevit Small
其他
MobileViT是一种轻量级、低延迟的视觉Transformer模型,结合了CNN和Transformer的优势,适用于移动端设备。
图像分类
Transformers

M
apple
894.23k
65
Phikon
其他
Phikon是基于iBOT训练的组织病理学自监督学习模型,主要用于从组织学图像块中提取特征。
图像分类
Transformers 英语

P
owkin
741.63k
30
Vit Tiny Patch16 224
Apache-2.0
基于timm仓库转换的ViT-Tiny模型,适用于图像分类任务,使用方法与ViT-base模型一致
图像分类
Transformers

V
WinKawaks
692.49k
21
Dinov2 Large
Apache-2.0
基于DINOv2方法训练的视觉Transformer模型,通过自监督学习从海量图像数据中提取鲁棒视觉特征
图像分类
Transformers

D
facebook
558.78k
79
Beit Base Patch16 224 Pt22k Ft22k
Apache-2.0
BEiT是一种基于视觉Transformer(ViT)的图像分类模型,通过自监督方式在ImageNet-22k上预训练,并在相同数据集上微调。
图像分类
B
microsoft
546.85k
76
Vit Small Patch16 224
Apache-2.0
基于timm代码库转换的ViT-tiny模型,适用于图像分类任务
图像分类
Transformers

V
WinKawaks
447.70k
18
Rad Dino
其他
基于自监督学习DINOv2训练的视觉Transformer模型,专门用于编码胸部X光影像
图像分类
Transformers

R
microsoft
411.96k
48
Swinv2 Tiny Patch4 Window16 256
Apache-2.0
Swin Transformer v2 是一种视觉Transformer模型,通过分层特征图和局部窗口自注意力机制实现高效的图像分类。
图像分类
Transformers

S
microsoft
403.69k
5
Swin Base Patch4 Window7 224
Apache-2.0
Swin Transformer是一种基于移动窗口的分层视觉Transformer,适用于图像分类任务。
图像分类
Transformers

S
microsoft
281.49k
15
Efficientnet B2
Apache-2.0
EfficientNet是一种移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在图像分类任务中表现优异。
图像分类
Transformers

E
google
276.94k
2
Resnet 50
Apache-2.0
ResNet-50是基于ImageNet-1k预训练的残差网络模型,采用v1.5架构改进,适用于图像分类任务。
图像分类
R
microsoft
273.80k
407
Plant Disease Detection Project
其他
MobileNet V2是一种轻量级的卷积神经网络,专为移动设备设计,在延迟、模型大小和准确性之间取得平衡。
图像分类
Transformers

P
Diginsa
242.43k
4
Beit Large Patch16 224
Apache-2.0
BEiT是一种基于视觉Transformer(ViT)架构的图像分类模型,通过自监督学习在ImageNet-21k上预训练,并在ImageNet-1k上微调。
图像分类
B
microsoft
222.46k
1
Prov Gigapath
Apache-2.0
Prov-GigaPath是一个基于真实世界数据的数字病理学全切片基础模型,用于提取病理切片的图块级和切片级特征。
图像分类
P
prov-gigapath
193.45k
131
Vit Large Patch16 224
Apache-2.0
基于Transformer架构的大规模图像分类模型,在ImageNet-21k和ImageNet-1k数据集上预训练和微调
图像分类
V
google
188.47k
30
Skin Type
一个用于分类人类皮肤类型的图像分类模型,致力于实现公平性,确保模型在所有肤色上都能正确表现。
图像分类
Transformers

S
driboune
182.21k
3
Vit Large Patch16 384
Apache-2.0
视觉变换器(ViT)是一种基于变换器架构的图像分类模型,先在ImageNet-21k上预训练,后在ImageNet上微调。
图像分类
V
google
161.29k
12
Nsfw Image Detection 384
Apache-2.0
轻量级NSFW图像检测模型,准确率98.56%,体积仅为同类模型的1/18-1/20
图像分类
N
Marqo
158.92k
21
Deit Base Patch16 224
Apache-2.0
DeiT是一种通过注意力机制训练的数据高效图像Transformer模型,在ImageNet-1k数据集上以224x224分辨率进行预训练和微调。
图像分类
Transformers

D
facebook
152.63k
13
Resnet 18
Apache-2.0
基于ImageNet-1k训练的ResNet模型,采用残差连接结构,支持图像分类任务
图像分类
Transformers

R
microsoft
133.01k
52
Deepfake Vs Real Image Detection
Apache-2.0
基于Vision Transformer架构的图像分类模型,用于检测真实图像与AI生成的伪造图像。
图像分类
Transformers

D
dima806
129.66k
27
Dino Vitb16
Apache-2.0
基于DINO自监督方法训练的视觉Transformer模型,采用ViT架构,在ImageNet-1k数据集上预训练。
图像分类
Transformers

D
facebook
122.46k
108
Vit Large Patch14 Reg4 Dinov2.lvd142m
Apache-2.0
带有寄存器的视觉变换器(ViT)图像特征模型,使用自监督的DINOv2方法在LVD-142M数据集上进行预训练。
图像分类
Transformers

V
timm
119.48k
7
Vit Large Patch32 384
Apache-2.0
该视觉Transformer(ViT)模型先在ImageNet-21k数据集上预训练,后在ImageNet数据集上微调,适用于图像分类任务。
图像分类
V
google
118.37k
16
Dinov2 Giant
Apache-2.0
采用DINOv2方法训练的视觉Transformer模型,通过自监督学习提取图像特征
图像分类
Transformers

D
facebook
117.56k
41
Dino Vits8
Apache-2.0
基于DINO方法自监督训练的视觉Transformer模型,使用8x8图像块处理,适用于图像特征提取任务
图像分类
Transformers

D
facebook
106.97k
12
Swin Tiny Patch4 Window7 224
Apache-2.0
Swin Transformer是一种分层视觉Transformer,通过局部窗口计算自注意力实现线性计算复杂度,适合图像分类任务。
图像分类
Transformers

S
microsoft
98.00k
42
Pedestrian Gender Recognition
Apache-2.0
该模型是基于BEiT架构在PETA数据集上微调的图像分类模型,用于识别行人性别,准确率达91.07%。
图像分类
Transformers

P
NTQAI
93.78k
15
Vit Large Patch16 224 In21k
Apache-2.0
基于ImageNet-21k数据集预训练的视觉Transformer模型,适用于图像特征提取和下游任务微调。
图像分类
V
google
92.63k
26
Vit Small Patch16 224.dino
Apache-2.0
基于视觉Transformer(ViT)的图像特征模型,采用自监督DINO方法训练,适用于图像分类和特征提取任务。
图像分类
Transformers

V
timm
70.62k
4
Mobilenet V2 1.0 224
其他
MobileNet V2 是一个轻量级的视觉模型,专为移动设备优化,在图像分类任务上表现优异。
图像分类
Transformers

M
google
69.47k
29
Nsfw Image Detector
Apache-2.0
基于Google Vision Transformer微调的NSFW(不适宜工作场所)内容检测模型,可识别5类图像内容
图像分类
Transformers

N
LukeJacob2023
68.26k
17
- 1
- 2
- 3
- 4
- 5
- 6
- 10