V

Vit Base Patch32 Clip 224.datacompxl

由timm開發
基於CLIP架構的視覺Transformer模型,專為圖像特徵提取設計,使用DataComp XL數據集訓練
下載量 13
發布時間 : 12/24/2024

模型概述

該模型是CLIP框架中的圖像編碼器部分,採用Vision Transformer架構,能夠將輸入圖像轉換為有意義的特徵表示,適用於各種視覺任務。

模型特點

CLIP架構
基於對比學習的視覺-語言預訓練框架,能夠學習圖像和文本的聯合表示
ViT-B/32架構
使用32x32圖像塊的Vision Transformer基礎模型,平衡性能和計算效率
DataComp XL訓練
使用大規模DataComp XL數據集訓練,具有強大的泛化能力

模型能力

圖像特徵提取
視覺表示學習
跨模態檢索

使用案例

計算機視覺
圖像檢索
使用提取的圖像特徵進行相似圖像檢索
視覺問答
作為視覺編碼器用於多模態問答系統
多模態應用
圖文匹配
評估圖像和文本描述之間的相關性
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase