V

Vit Base Patch32 384

由google開發
Vision Transformer(ViT)是一種基於Transformer架構的圖像分類模型,通過在ImageNet-21k和ImageNet數據集上進行預訓練和微調,實現了高效的圖像識別能力。
下載量 24.92k
發布時間 : 3/2/2022

模型概述

ViT模型將圖像分割為固定大小的塊,通過Transformer編碼器進行特徵提取,適用於圖像分類任務。模型在ImageNet-21k上預訓練,並在ImageNet上微調,支持高分辨率圖像處理。

模型特點

基於Transformer的圖像處理
將圖像分割為固定大小的塊,通過Transformer編碼器提取特徵,突破了傳統CNN的限制。
高分辨率微調
在ImageNet上以384x384分辨率微調,提升了模型在高分辨率圖像上的分類性能。
大規模預訓練
在ImageNet-21k(1400萬張圖像,21,843個類別)上進行預訓練,學習到豐富的圖像特徵表示。

模型能力

圖像分類
特徵提取

使用案例

計算機視覺
ImageNet圖像分類
將圖像分類為1,000個ImageNet類別之一。
在ImageNet數據集上表現出色,具體性能指標參見原論文。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase