V

Vit Base Patch16 224 In21k Bantai Vitv1

由 AykeeSalazar 开发
该模型是基于Google Vision Transformer (ViT)架构的图像分类模型,在image_folder数据集上微调后达到86.36%的准确率。
下载量 17
发布时间 : 4/2/2022

模型简介

这是一个基于ViT架构的图像分类模型,适用于通用图像识别任务。模型在标准图像分类任务上表现出色,准确率达到86.36%。

模型特点

高准确率
在评估集上达到86.36%的分类准确率
基于ViT架构
采用Vision Transformer架构,利用自注意力机制处理图像
迁移学习
基于预训练的google/vit-base-patch16-224-in21k模型微调

模型能力

图像分类
视觉特征提取

使用案例

计算机视觉
通用图像分类
对各类图像进行分类识别
在测试集上达到86.36%准确率
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase