T

Tic CLIP Bestpool Sequential

由apple開發
TiC-CLIP是基於TiC-DataComp-Yearly數據集訓練的視覺語言模型,採用持續學習策略保持模型與最新數據同步
下載量 280
發布時間 : 6/5/2024

模型概述

該模型是用於視覺語言任務的持續學習模型,通過時間連續數據訓練,避免傳統重訓練的高昂成本,支持零樣本圖像分類和跨模態檢索

模型特點

持續學習策略
採用經驗回放策略進行持續訓練,相比傳統從頭訓練減少2.5倍計算量
時間魯棒性
專門設計用於處理時間變化數據,在較新數據上表現優於傳統CLIP模型
大規模訓練數據
基於TiC-DataComp數據集訓練,包含2014-2022年間127億條時間戳圖像-文本對

模型能力

零樣本圖像分類
圖像-文本檢索
跨模態表示學習

使用案例

計算機視覺
時間敏感圖像分類
對隨時間變化的概念和趨勢進行圖像分類
在2021-2022數據上比傳統CLIP模型準確率提高約8%
信息檢索
跨時間圖像檢索
基於文本查詢檢索不同時間段的圖像
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase