V

Vit Base Patch16 224.orig In21k

由timm開發
基於Vision Transformer的圖像分類模型,在ImageNet-21k上預訓練,適用於特徵提取和微調
下載量 23.07k
發布時間 : 11/16/2023

模型概述

這是一個基於Vision Transformer架構的圖像分類模型,由Google Research團隊開發並在ImageNet-21k數據集上預訓練。模型不包含分類頭,適合作為特徵提取骨幹網絡或進行下游任務微調。

模型特點

大規模預訓練
在ImageNet-21k大規模數據集上預訓練,具有強大的特徵提取能力
Transformer架構
採用純Transformer架構處理圖像,將圖像分割為16x16的patch進行處理
靈活應用
可作為特徵提取骨幹網絡或進行下游任務微調,支持移除分類頭

模型能力

圖像特徵提取
圖像分類
遷移學習

使用案例

計算機視覺
圖像分類
用於圖像分類任務,可微調模型以適應特定分類需求
特徵提取
作為骨幹網絡提取圖像特徵,用於下游任務如目標檢測、圖像分割等
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase