T

Tic CLIP Basic Oracle

appleによって開発
TiC-CLIPはOpenCLIPを改良した視覚言語モデルで、時間的持続学習に焦点を当て、2014年から2022年までの訓練データをカバーしています
ダウンロード数 37
リリース時間 : 6/5/2024

モデル概要

このモデルは持続学習手法により最新データとの同期を維持し、従来の再訓練の高コストを回避、時間ロバスト性が必要な視覚言語タスクに特に適しています

モデル特徴

時間的持続学習
メモリ再生手法を採用し効率的な継続的訓練を実現、従来手法比2.5倍の計算量削減
大規模時間注釈データ
TiC-DataCompデータセットで訓練、127億のタイムスタンプ付き画像テキストペアを含み、9年間の時間スパンをカバー
時間ロバスト性
時間経過による性能低下問題に特化して設計され、新データへの適応性を維持

モデル能力

ゼロショット画像分類
クロスモーダル検索
時間敏感な視覚理解

使用事例

研究応用
持続学習手法開発
研究者はこのモデルをベンチマークとして使用し、新しい持続学習手法を開発可能
手法開発プロセスの加速
商業応用
時効性コンテンツ理解
ニュースやソーシャルメディア分析など、時間とともに変化するコンテンツを理解する必要があるアプリケーションに使用
最新コンテンツの理解精度向上
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase