V

Vit Base Patch16 224 In21k Wwwwii

由Imene開發
基於Google Vision Transformer (ViT)基礎模型微調的視覺分類模型,適用於圖像分類任務
下載量 21
發布時間 : 9/2/2022

模型概述

該模型是基於google/vit-base-patch16-224-in21k預訓練模型在未知數據集上微調的版本,主要用於圖像分類任務。

模型特點

基於ViT架構
採用Vision Transformer架構,使用16x16圖像塊處理輸入
遷移學習
基於ImageNet-21k預訓練模型微調,具有較好的特徵提取能力
高效分類
在驗證集上達到62.67%的準確率和83.49%的Top-3準確率

模型能力

圖像分類
視覺特徵提取

使用案例

計算機視覺
通用圖像分類
對輸入圖像進行分類識別
驗證準確率62.67%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase