T

Tic CLIP Bestpool Oracle

appleによって開発
TiC-CLIPはOpenCLIPを改良した視覚言語モデルで、時間継続学習に焦点を当て、2014年から2022年までの訓練データをカバーしています
ダウンロード数 44
リリース時間 : 6/5/2024

モデル概要

このモデルは継続学習戦略により最新データとの同期を維持し、従来の再訓練の高コストを回避、ゼロショット画像分類やクロスモーダル検索タスクに適しています

モデル特徴

時間継続学習
メモリ再生戦略を採用した効率的な継続訓練を実現、従来手法に比べ2.5倍の計算量削減
大規模時間ベンチマーク
TiC-DataCompデータセットに基づく訓練、9年間にわたる127億のタイムスタンプ付き画像-テキストペアを含む
時間ロバスト性
時間と共に変化するデータ分布を処理するために特別設計、新しいデータ上でのモデル性能を維持

モデル能力

ゼロショット画像分類
クロスモーダル検索
画像-テキストマッチング
継続学習

使用事例

コンピュータビジョン
時間感応型画像分類
時間と共に変化する画像分布の分類(ファッション動向、ニュースイベントなど)
2021-2022年データで従来のCLIPモデルより約8%精度向上
クロスモーダルアプリケーション
歴史画像検索
時間コンテキストに基づく関連歴史画像の検索
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase