V

Vit Xsmall Patch16 Clip 224.tinyclip Yfcc15m

由timm開發
基於CLIP架構的小型視覺-語言模型,專為高效零樣本圖像分類設計
下載量 444
發布時間 : 3/20/2024

模型概述

該模型是CLIP架構的輕量化版本,使用YFCC15M數據集訓練,適用於零樣本圖像分類任務。

模型特點

輕量化設計
採用XSmall規模的ViT架構,計算資源需求較低
零樣本學習
無需特定領域訓練即可執行圖像分類任務
多模態理解
同時理解視覺和文本信息,實現跨模態匹配

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索

使用案例

內容管理
自動圖片標註
為未標註圖片自動生成描述性標籤
提升圖片庫管理效率
電子商務
產品分類
根據自然語言描述對產品圖片進行分類
無需訓練即可支持新產品類別
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase