C

Clip Vit Base Patch32 Stanford Cars

由tanganke開發
基於CLIP視覺變換器架構,在斯坦福汽車數據集上微調的視覺分類模型
下載量 4,143
發布時間 : 4/28/2024

模型概述

該模型是OpenAI CLIP視覺編碼器在斯坦福汽車數據集上的微調版本,專門用於汽車圖像分類任務。

模型特點

專業領域微調
在斯坦福汽車數據集上微調,顯著提升汽車分類準確率
高效視覺編碼
基於ViT架構,使用32x32像素塊處理圖像
模塊化設計
可單獨使用視覺編碼器或集成到完整CLIP模型中

模型能力

汽車圖像分類
視覺特徵提取
細粒度圖像識別

使用案例

汽車行業
汽車型號識別
識別圖像中汽車的品牌和型號
準確率達到78.19%
二手車評估
通過圖像自動識別車輛特徵
零售
汽車電商搜索
通過圖像搜索相似車輛
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase