V

Vit Base Patch16 224 In21k Lcbsi

由polejowska開發
基於Google Vision Transformer (ViT)架構的微調模型,適用於圖像分類任務
下載量 33
發布時間 : 12/14/2022

模型概述

該模型是在google/vit-base-patch16-224-in21k基礎上微調的版本,主要用於圖像分類任務,在評估集上達到了98.53%的準確率

模型特點

高準確率
在評估集上達到了98.53%的分類準確率
基於ViT架構
採用Vision Transformer架構,利用自注意力機制處理圖像
預訓練模型微調
基於google/vit-base-patch16-224-in21k預訓練模型進行微調

模型能力

圖像分類
視覺特徵提取

使用案例

計算機視覺
通用圖像分類
對輸入圖像進行分類識別
評估準確率98.53%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase