S

Swinv2 Base Patch4 Window16 256

由microsoft開發
Swin Transformer v2是一種視覺Transformer模型,通過分層特徵圖和局部窗口自注意力機制實現高效的圖像分類和密集識別任務。
下載量 1,853
發布時間 : 6/15/2022

模型概述

該模型在ImageNet-1k數據集上以256x256分辨率進行了預訓練,適用於圖像分類任務。採用了殘差後歸一化、對數間隔連續位置偏置和自監督預訓練方法SimMIM等改進技術。

模型特點

分層特徵圖
通過在更深層合併圖像塊構建分層特徵圖,提高特徵提取效率。
局部窗口自注意力
僅在局部窗口內計算自注意力,使計算複雜度與輸入圖像大小呈線性關係。
殘差後歸一化與餘弦注意力
提高訓練穩定性。
對數間隔連續位置偏置
有效將低分辨率圖像預訓練的模型遷移到高分辨率輸入的下游任務。
自監督預訓練方法SimMIM
減少對大量標註圖像的需求。

模型能力

圖像分類
密集識別任務

使用案例

圖像識別
動物識別
識別圖像中的動物種類,如老虎。
物體識別
識別日常物品,如茶壺。
場景識別
識別建築或自然場景,如宮殿。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase