V

Vit Base Patch16 224 In21k Bantai Vitv1

AykeeSalazarによって開発
このモデルはGoogle Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、image_folderデータセットでファインチューニング後86.36%の精度を達成しました。
ダウンロード数 17
リリース時間 : 4/2/2022

モデル概要

これはViTアーキテクチャに基づく画像分類モデルで、汎用画像認識タスクに適しています。モデルは標準的な画像分類タスクで優れた性能を発揮し、86.36%の精度を達成しています。

モデル特徴

高精度
評価データセットで86.36%の分類精度を達成
ViTアーキテクチャ採用
Vision Transformerアーキテクチャを採用し、自己注意機構で画像を処理
転移学習
事前学習済みgoogle/vit-base-patch16-224-in21kモデルをファインチューニング

モデル能力

画像分類
視覚的特徴抽出

使用事例

コンピュータビジョン
汎用画像分類
様々な画像を分類・識別
テストデータセットで86.36%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase