T

Tic CLIP Bestpool Cumulative

由apple開發
TiC-CLIP是基於OpenCLIP改進的視覺語言模型,採用持續訓練策略在時間序列數據上訓練,有效降低了模型更新的計算成本。
下載量 313
發布時間 : 6/5/2024

模型概述

該模型是用於持續訓練視覺語言模型的基準套件,包含跨越9年(2014-2022)的時間戳圖像-文本對數據,支持零樣本圖像分類和跨模態檢索任務。

模型特點

時間持續訓練
採用持續訓練策略避免完全重訓練,相比標準方法減少2.5倍計算量
大規模時間序列數據
基於TiC-DataComp數據集,包含2014-2022年間的127億條時間戳圖像-文本對
高效回放策略
通過從最後檢查點繼續訓練並重放舊數據的方式保持模型性能

模型能力

零樣本圖像分類
圖像-文本匹配
跨模態檢索
持續學習

使用案例

計算機視覺研究
持續學習方法開發
研究人員可利用該模型加速持續學習方法的開發
從預訓練檢查點出發,在後續年度/月度數據上進行持續訓練
跨模態應用
圖像檢索系統
構建基於時間序列的圖像檢索系統
在2021-2022檢索任務上比傳統CLIP模型提高8%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase