T

Tic CLIP Bestpool Sequential

appleによって開発
TiC-CLIPはTiC-DataComp-Yearlyデータセットでトレーニングされた視覚言語モデルで、継続的学習戦略を採用してモデルを最新データと同期させる
ダウンロード数 280
リリース時間 : 6/5/2024

モデル概要

このモデルは視覚言語タスクのための継続的学習モデルで、時間的に連続したデータでトレーニングされ、従来の再トレーニングの高コストを回避し、ゼロショット画像分類とクロスモーダル検索をサポート

モデル特徴

継続的学習戦略
経験再生戦略を採用した継続的トレーニングで、従来の一からトレーニングに比べて2.5倍の計算量削減
時間的ロバスト性
時間変化データを処理するために特別に設計され、新しいデータで従来のCLIPモデルより優れた性能を発揮
大規模トレーニングデータ
TiC-DataCompデータセットでトレーニングされ、2014-2022年の127億のタイムスタンプ付き画像-テキストペアを含む

モデル能力

ゼロショット画像分類
画像-テキスト検索
クロスモーダル表現学習

使用事例

コンピュータビジョン
時間感応型画像分類
時間とともに変化する概念やトレンドの画像分類
2021-2022データで従来のCLIPモデルより約8%精度向上
情報検索
時間横断的画像検索
テキストクエリに基づいて異なる期間の画像を検索
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase