V

Vit Base Patch16 224 In21k Wwwwii

Developed by Imene
Google Vision Transformer (ViT)ベースモデルを微調整した視覚分類モデルで、画像分類タスクに適しています
Downloads 21
Release Time : 9/2/2022

Model Overview

このモデルはgoogle/vit-base-patch16-224-in21k事前学習モデルを未知のデータセットで微調整したバージョンで、主に画像分類タスクに使用されます。

Model Features

ViTアーキテクチャベース
Vision Transformerアーキテクチャを採用し、16x16画像パッチで入力を処理
転移学習
ImageNet-21k事前学習モデルをベースに微調整されており、優れた特徴抽出能力を有する
効率的な分類
検証セットで62.67%の精度と83.49%のTop-3精度を達成

Model Capabilities

画像分類
視覚的特徴抽出

Use Cases

コンピュータビジョン
汎用画像分類
入力画像を分類識別
検証精度62.67%
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase