Mar Vae Kl16
MIT
这是一个基于ImageNet-1k数据集训练的KL16变分自编码器(VAE)模型,用于图像到图像的转换任务。
图像生成
M
xwen99
81
0
Dinov2 Small Imagenet1k 1 Layer
Apache-2.0
基于DINOv2方法训练的小型视觉Transformer模型,适用于图像特征提取和分类任务
图像分类
Transformers

D
facebook
50.86k
2
Pvt Tiny 224
Apache-2.0
金字塔视觉变换器(PVT)是一种基于变换器架构的视觉模型,专为图像分类任务设计。
图像分类
Transformers

P
Xrenya
25
0
Efficientnet B6
Apache-2.0
EfficientNet是一款移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在ImageNet-1k数据集上训练
图像分类
Transformers

E
google
167
0
Efficientnet B5
Apache-2.0
EfficientNet是一种对移动设备友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在ImageNet-1k数据集上训练。
图像分类
Transformers

E
google
331
1
Efficientnet B4
Apache-2.0
EfficientNet是一款移动端友好的纯卷积模型,通过复合系数统一调整深度、宽度和分辨率维度,在ImageNet-1k数据集上训练而成。
图像分类
Transformers

E
google
5,528
1
Efficientnet B3
Apache-2.0
EfficientNet是一款移动端友好的纯卷积神经网络,通过复合系数统一调整深度/宽度/分辨率维度,实现高效缩放
图像分类
Transformers

E
google
418
2
Efficientnet B2
Apache-2.0
EfficientNet是一种移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在图像分类任务中表现优异。
图像分类
Transformers

E
google
276.94k
2
Efficientnet B1
Apache-2.0
EfficientNet是一款移动端友好的纯卷积神经网络,通过复合系数统一调整深度/宽度/分辨率维度,实现高效缩放。
图像分类
Transformers

E
google
1,868
1
Efficientnet B0
Apache-2.0
EfficientNet是一款移动端友好的纯卷积模型,通过复合系数统一缩放深度/宽度/分辨率维度,在ImageNet-1k数据集上训练。
图像分类
Transformers

E
google
17.12k
12
Efficientformer L3 300
Apache-2.0
EfficientFormer-L3是由Snap Research开发的轻量级视觉Transformer模型,专为移动设备优化,在保持高性能的同时实现低延迟。
图像分类 英语
E
snap-research
279
2
Convnextv2 Base.fcmae
基于ConvNeXt-V2的自监督特征表示模型,采用全卷积掩码自编码器框架(FCMAE)进行预训练
图像分类
Transformers

C
timm
629
1
Vit Base Patch8 224.dino
Apache-2.0
基于自监督DINO方法训练的视觉Transformer(ViT)图像特征模型,适用于图像分类和特征提取任务。
图像分类
Transformers

V
timm
9,287
1
Nat Mini In1k 224
MIT
NAT-Mini 是基于邻域注意力机制的轻量级视觉Transformer模型,专为ImageNet图像分类任务设计
图像分类
Transformers 其他

N
shi-labs
109
0
Mobilenet V2 0.35 96
其他
MobileNet V2是一种小型、低延迟、低功耗的视觉模型,专为移动设备优化设计
图像分类
Transformers

M
google
540
1
Mobilenet V2 1.4 224
其他
MobileNet V2是一种轻量级的卷积神经网络,专为移动设备设计,在图像分类任务中表现出色。
图像分类
Transformers

M
Matthijs
26
0
Mobilenet V2 1.0 224
其他
MobileNet V2是一种轻量级卷积神经网络,专为移动设备设计,在图像分类任务中表现优异。
图像分类
Transformers

M
Matthijs
29
0
Mobilenet V1 1.0 224
其他
MobileNet V1是一种轻量级卷积神经网络,专为移动和嵌入式视觉应用设计,在ImageNet-1k数据集上预训练。
图像分类
Transformers

M
Matthijs
41
0
Levit 128S
Apache-2.0
LeViT-128S是基于ImageNet-1k数据集预训练的视觉Transformer模型,结合了卷积网络的优势以实现更快推理。
图像分类
Transformers

L
facebook
3,198
4
Levit 128
Apache-2.0
LeViT-128是一个基于视觉Transformer架构的图像分类模型,通过结合卷积网络的优势实现高效推理。
图像分类
Transformers

L
facebook
44
0
Levit 256
Apache-2.0
LeViT-256是基于Transformer架构的高效视觉模型,专为快速推理设计,在ImageNet-1k数据集上预训练。
图像分类
Transformers

L
facebook
37
0
Levit 384
Apache-2.0
LeViT-384是基于ImageNet-1k数据集预训练的视觉Transformer模型,结合了卷积网络的优势以实现更快的推理速度。
图像分类
Transformers

L
facebook
37
0
Mobilevit Small
其他
MobileViT是一种轻量级、低延迟的视觉Transformer模型,结合了CNN和Transformer的优势,适用于移动端设备。
图像分类
Transformers

M
apple
894.23k
65
Mobilevit Small
其他
MobileViT是一种轻量级、低延迟的视觉Transformer模型,结合了CNN和Transformer的优势,适用于移动端设备。
图像分类
Transformers

M
Matthijs
39
0
Data2vec Vision Large
Apache-2.0
Data2Vec-Vision是基于BEiT架构的自监督学习模型,在ImageNet-1k数据集上预训练,适用于图像分类任务。
图像分类
Transformers

D
facebook
225
2
Data2vec Vision Base
Apache-2.0
Data2Vec-Vision是基于BEiT架构的自监督学习模型,在ImageNet-1k数据集上预训练,适用于图像分类任务。
图像分类
Transformers

D
facebook
427
3
Cvt 21
Apache-2.0
CvT-21是基于ImageNet-1k数据集预训练的视觉变换器模型,通过引入卷积操作改进传统视觉变换器。
图像分类
Transformers

C
microsoft
589
0
Cvt 21 384
Apache-2.0
CvT-21是基于卷积视觉变换器架构的图像分类模型,在ImageNet-1k数据集上以384x384分辨率预训练。
图像分类
Transformers

C
microsoft
29
1
Cvt 13 384
Apache-2.0
CvT-13是基于ImageNet-1k数据集预训练的视觉变换器模型,通过引入卷积操作改进了传统视觉变换器的性能。
图像分类
Transformers

C
microsoft
27
0
Regnet Y 320
Apache-2.0
基于imagenet-1k训练的RegNet图像分类模型,通过神经架构搜索设计的高效网络结构
图像分类
Transformers

R
facebook
29
0
Regnet Y 160
Apache-2.0
基于imagenet-1k数据集训练的RegNet模型,通过神经架构搜索设计的高效视觉模型
图像分类
Transformers

R
facebook
18
0
Regnet Y 080
Apache-2.0
基于ImageNet-1k训练的RegNet图像分类模型,采用神经架构搜索技术设计
图像分类
Transformers

R
facebook
30
0
Regnet Y 064
Apache-2.0
基于imagenet-1k训练的RegNet模型,通过神经架构搜索设计的高效视觉模型
图像分类
Transformers

R
facebook
17
0
Regnet Y 040
Apache-2.0
基于imagenet-1k训练的RegNet模型,通过神经架构搜索设计的高效视觉模型
图像分类
R
facebook
2,083
1
Regnet Y 032
Apache-2.0
基于imagenet-1k训练的RegNet图像分类模型,通过神经架构搜索设计的高效网络结构
图像分类
Transformers

R
facebook
21
0
Regnet Y 016
Apache-2.0
基于ImageNet-1k训练的RegNet模型,通过神经架构搜索设计的高效视觉模型
图像分类
Transformers

R
facebook
19
0
Regnet Y 008
Apache-2.0
基于ImageNet-1k训练的RegNet模型,通过神经架构搜索设计的高效视觉模型
图像分类
Transformers

R
facebook
22
0
Regnet Y 006
Apache-2.0
RegNet是一种通过神经架构搜索设计的图像分类模型,在imagenet-1k数据集上训练。
图像分类
Transformers

R
facebook
18
0
Regnet Y 004
Apache-2.0
RegNet是基于imagenet-1k训练的视觉分类模型,通过神经架构搜索(NAS)设计的高效网络结构
图像分类
Transformers

R
facebook
17
0
Regnet X 320
Apache-2.0
基于imagenet-1k训练的RegNet模型,通过神经架构搜索设计的高效视觉模型
图像分类
Transformers

R
facebook
31
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98