🚀 eva02_large_patch14_224.mim_m38mのモデルカード
EVA02の特徴/表現モデルです。論文の著者により、マスク画像モデリング(EVA - CLIPをMIM教師として使用)を用いて、Merged - 38M(IN - 22K、CC12M、CC3M、COCO(トレーニング)、ADE20K(トレーニング)、Object365、およびOpenImages)で事前学習されています。
EVA - 02モデルは、平均プーリング、SwiGLU、ロータリー位置埋め込み(ROPE)、およびMLPに追加のLN(BaseとLargeの場合)を備えたビジョントランスフォーマーです。
⚠️ 重要提示
timm
のチェックポイントは、他のモデルとの一貫性を保つためにfloat32です。元のチェックポイントは場合によってはfloat16またはbfloat16です。その場合は元のものを参照してください。
🚀 クイックスタート
このモデルは画像分類や特徴抽出に使用できます。以下に具体的な使用方法を説明します。
✨ 主な機能
- 画像分類や特徴抽出に適したモデルです。
- 事前学習データセットを用いて、高精度な表現を学習しています。
📦 インストール
このモデルを使用するには、timm
ライブラリが必要です。以下のコマンドでインストールできます。
pip install timm
💻 使用例
基本的な使用法
画像分類
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model('eva02_large_patch14_224.mim_m38m', pretrained=True)
model = model.eval()
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0))
top5_probabilities, top5_class_indices = torch.topk(output.softmax(dim=1) * 100, k=5)
画像埋め込み
from urllib.request import urlopen
from PIL import Image
import timm
img = Image.open(urlopen(
'https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/beignets-task-guide.png'
))
model = timm.create_model(
'eva02_large_patch14_224.mim_m38m',
pretrained=True,
num_classes=0,
)
model = model.eval()
data_config = timm.data.resolve_model_data_config(model)
transforms = timm.data.create_transform(**data_config, is_training=False)
output = model(transforms(img).unsqueeze(0))
output = model.forward_features(transforms(img).unsqueeze(0))
output = model.forward_head(output, pre_logits=True)
📚 ドキュメント
モデル詳細
属性 |
详情 |
モデルタイプ |
画像分類 / 特徴バックボーン |
パラメータ数 (M) |
303.3 |
GMACs |
81.1 |
活性化関数 (M) |
97.2 |
画像サイズ |
224 x 224 |
論文 |
EVA - 02: A Visual Representation for Neon Genesis: https://arxiv.org/abs/2303.11331 EVA - CLIP: Improved Training Techniques for CLIP at Scale: https://arxiv.org/abs/2303.15389 |
元のリポジトリ |
https://github.com/baaivision/EVA https://huggingface.co/Yuxin - CV/EVA - 02 |
事前学習データセット |
ImageNet - 22k |
モデル比較
このモデルのデータセットと実行時のメトリクスをtimmのモデル結果で確認できます。
モデル |
top1 |
top5 |
パラメータ数 |
画像サイズ |
eva02_large_patch14_448.mim_m38m_ft_in22k_in1k |
90.054 |
99.042 |
305.08 |
448 |
eva02_large_patch14_448.mim_in22k_ft_in22k_in1k |
89.946 |
99.01 |
305.08 |
448 |
eva_giant_patch14_560.m30m_ft_in22k_in1k |
89.792 |
98.992 |
1014.45 |
560 |
eva02_large_patch14_448.mim_in22k_ft_in1k |
89.626 |
98.954 |
305.08 |
448 |
eva02_large_patch14_448.mim_m38m_ft_in1k |
89.57 |
98.918 |
305.08 |
448 |
eva_giant_patch14_336.m30m_ft_in22k_in1k |
89.56 |
98.956 |
1013.01 |
336 |
eva_giant_patch14_336.clip_ft_in1k |
89.466 |
98.82 |
1013.01 |
336 |
eva_large_patch14_336.in22k_ft_in22k_in1k |
89.214 |
98.854 |
304.53 |
336 |
eva_giant_patch14_224.clip_ft_in1k |
88.882 |
98.678 |
1012.56 |
224 |
eva02_base_patch14_448.mim_in22k_ft_in22k_in1k |
88.692 |
98.722 |
87.12 |
448 |
eva_large_patch14_336.in22k_ft_in1k |
88.652 |
98.722 |
304.53 |
336 |
eva_large_patch14_196.in22k_ft_in22k_in1k |
88.592 |
98.656 |
304.14 |
196 |
eva02_base_patch14_448.mim_in22k_ft_in1k |
88.23 |
98.564 |
87.12 |
448 |
eva_large_patch14_196.in22k_ft_in1k |
87.934 |
98.504 |
304.14 |
196 |
eva02_small_patch14_336.mim_in22k_ft_in1k |
85.74 |
97.614 |
22.13 |
336 |
eva02_tiny_patch14_336.mim_in22k_ft_in1k |
80.658 |
95.524 |
5.76 |
336 |
📄 ライセンス
このモデルはMITライセンスの下で提供されています。
引用
@article{EVA02,
title={EVA-02: A Visual Representation for Neon Genesis},
author={Fang, Yuxin and Sun, Quan and Wang, Xinggang and Huang, Tiejun and Wang, Xinlong and Cao, Yue},
journal={arXiv preprint arXiv:2303.11331},
year={2023}
}
@article{EVA-CLIP,
title={EVA-02: A Visual Representation for Neon Genesis},
author={Sun, Quan and Fang, Yuxin and Wu, Ledell and Wang, Xinlong and Cao, Yue},
journal={arXiv preprint arXiv:2303.15389},
year={2023}
}
@misc{rw2019timm,
author = {Ross Wightman},
title = {PyTorch Image Models},
year = {2019},
publisher = {GitHub},
journal = {GitHub repository},
doi = {10.5281/zenodo.4414861},
howpublished = {\url{https://github.com/huggingface/pytorch-image-models}}
}