V

Vit Base Patch16 224 In21k Finetuned Cifar10

由 aaraki 开发
基于Google Vision Transformer (ViT)架构的预训练模型,在CIFAR-10数据集上进行了微调,用于图像分类任务。
下载量 16.69k
发布时间 : 3/30/2022

模型简介

该模型是基于Google的ViT-base-patch16-224-in21k预训练模型,在CIFAR-10数据集上进行微调后的版本,专门用于10类图像分类任务。

模型特点

高准确率
在CIFAR-10测试集上达到了97.88%的准确率
基于Transformer架构
采用Vision Transformer架构,利用自注意力机制处理图像数据
迁移学习
基于ImageNet-21k预训练模型进行微调,充分利用预训练知识

模型能力

图像分类
10类物体识别

使用案例

计算机视觉
CIFAR-10图像分类
对CIFAR-10数据集中的10类常见物体进行分类
准确率97.88%
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase