V

Vit Base Patch16 224 In21k Bantai Vitv1

由AykeeSalazar開發
該模型是基於Google Vision Transformer (ViT)架構的圖像分類模型,在image_folder數據集上微調後達到86.36%的準確率。
下載量 17
發布時間 : 4/2/2022

模型概述

這是一個基於ViT架構的圖像分類模型,適用於通用圖像識別任務。模型在標準圖像分類任務上表現出色,準確率達到86.36%。

模型特點

高準確率
在評估集上達到86.36%的分類準確率
基於ViT架構
採用Vision Transformer架構,利用自注意力機制處理圖像
遷移學習
基於預訓練的google/vit-base-patch16-224-in21k模型微調

模型能力

圖像分類
視覺特徵提取

使用案例

計算機視覺
通用圖像分類
對各類圖像進行分類識別
在測試集上達到86.36%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase