D

Deit Tiny Distilled Patch16 224

facebookによって開発
このモデルは蒸留版データ効率的画像Transformer(DeiT)で、ImageNet-1kにおいて224x224解像度で事前学習と微調整を行い、教師モデルから効率的に学習します。
ダウンロード数 6,016
リリース時間 : 3/2/2022

モデル概要

このモデルは蒸留版視覚Transformer(ViT)で、蒸留トークンを使用して事前学習と微調整段階で教師モデル(CNN)から効率的に学習します。主に画像分類タスクに使用されます。

モデル特徴

蒸留学習
蒸留トークンを使用して教師モデル(CNN)から効率的に学習し、モデル性能を向上させます。
効率的な訓練
ImageNet-1kにおいて224x224解像度で事前学習と微調整を行い、訓練効率が高いです。
マイクロサイズ
モデルパラメータ数はわずか6Mで、リソースが限られた環境に適しています。

モデル能力

画像分類
視覚特徴抽出

使用事例

画像分類
ImageNet画像分類
画像をImageNetの1000クラスのいずれかに分類します。
Top-1精度74.5%、Top-5精度91.9%。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase