🚀 vit_base_patch32_224.orig_in21k模型
这是一个基于Vision Transformer (ViT) 的图像分类模型。该模型由论文作者在JAX中基于ImageNet - 21k数据集进行预训练,后由Ross Wightman移植到PyTorch。此模型没有分类头,仅适用于特征提取和微调。
🚀 快速开始
本模型是基于Vision Transformer (ViT) 架构的图像分类模型,可用于图像特征提取和微调。以下是使用示例:
💻 使用示例
基础用法
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model('vit_base_patch32_224.orig_in21k', pretrained=True)
model = model.eval()
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0))
top5_probabilities, top5_class_indices = torch.topk(output.softmax(dim=1) * 100, k=5)
高级用法
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model(
'vit_base_patch32_224.orig_in21k',
pretrained=True,
num_classes=0,
)
model = model.eval()
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0))
output = model.forward_features(transforms(img).unsqueeze(0))
output = model.forward_head(output, pre_logits=True)
✨ 主要特性
- 基于Vision Transformer (ViT) 架构,适用于图像分类任务。
- 在ImageNet - 21k数据集上进行预训练。
- 模型没有分类头,可用于特征提取和微调。
📚 详细文档
模型详情
属性 |
详情 |
模型类型 |
图像分类/特征骨干网络 |
模型参数(百万) |
87.5 |
GMACs |
4.4 |
激活值(百万) |
4.2 |
图像尺寸 |
224 x 224 |
相关论文 |
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale: https://arxiv.org/abs/2010.11929v2 |
训练数据集 |
ImageNet - 21k |
原始代码库 |
https://github.com/google-research/vision_transformer |
模型对比
你可以在timm 模型结果 中查看该模型的数据集和运行时指标。
引用信息
@article{dosovitskiy2020vit,
title={An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale},
author={Dosovitskiy, Alexey and Beyer, Lucas and Kolesnikov, Alexander and Weissenborn, Dirk and Zhai, Xiaohua and Unterthiner, Thomas and Dehghani, Mostafa and Minderer, Matthias and Heigold, Georg and Gelly, Sylvain and Uszkoreit, Jakob and Houlsby, Neil},
journal={ICLR},
year={2021}
}
@misc{rw2019timm,
author = {Ross Wightman},
title = {PyTorch Image Models},
year = {2019},
publisher = {GitHub},
journal = {GitHub repository},
doi = {10.5281/zenodo.4414861},
howpublished = {\url{https://github.com/huggingface/pytorch-image-models}}
}
📄 许可证
本项目采用Apache - 2.0许可证。