T

Tic CLIP Bestpool Cumulative

appleによって開発
TiC-CLIPはOpenCLIPを改良した視覚言語モデルで、時系列データ上で継続的トレーニング戦略を採用し、モデル更新の計算コストを効果的に削減しました。
ダウンロード数 313
リリース時間 : 6/5/2024

モデル概要

このモデルは継続的トレーニングを行う視覚言語モデルのベンチマークスイートで、9年間(2014-2022)にわたるタイムスタンプ付き画像-テキストペアデータを含み、ゼロショット画像分類とクロスモーダル検索タスクをサポートします。

モデル特徴

時間的継続トレーニング
継続的トレーニング戦略を採用し完全な再トレーニングを回避、標準手法と比べて2.5倍の計算量削減
大規模時系列データ
TiC-DataCompデータセットを基に、2014-2022年の127億件のタイムスタンプ付き画像-テキストペアを含む
効率的なリプレイ戦略
最終チェックポイントからトレーニングを継続し古いデータをリプレイする方法でモデル性能を維持

モデル能力

ゼロショット画像分類
画像-テキストマッチング
クロスモーダル検索
継続的学習

使用事例

コンピュータビジョン研究
継続的学習手法開発
研究者はこのモデルを利用して継続的学習手法の開発を加速できる
事前学習済みチェックポイントから出発し、後続の年次/月次データで継続的トレーニングを実施
クロスモーダルアプリケーション
画像検索システム
時系列ベースの画像検索システムを構築
2021-2022検索タスクで従来のCLIPモデルより8%精度向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase