C

CLIP ViT L 14 CommonPool.XL.clip S13b B90k

laionによって開発
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類とクロスモーダル検索をサポート
ダウンロード数 534
リリース時間 : 4/26/2023

モデル概要

このモデルはCLIPシリーズのバリエーションで、Vision Transformer (ViT)アーキテクチャと対照学習目標を組み合わせており、画像とテキスト間の意味的関係を理解でき、ゼロショット画像分類やクロスモーダル検索タスクに適しています。

モデル特徴

ゼロショット学習能力
タスク固有のファインチューニングなしで新しいカテゴリの画像分類を実行可能
クロスモーダル理解
画像とテキストの意味的関係を同時に処理・理解可能
大規模事前学習
CommonPool.XLデータセットで事前学習(約13Bサンプルを含む)

モデル能力

ゼロショット画像分類
画像-テキストマッチング
クロスモーダル検索
マルチモーダル特徴抽出

使用事例

コンテンツモデレーション
違反コンテンツ検出
テキスト記述による違反画像コンテンツの検出
様々な違反コンテンツタイプを識別可能(精度は具体的なアプリケーションシナリオに依存)
電子商取引
ビジュアル検索
テキストクエリによる関連製品画像の検索
製品検索の関連性とユーザー体験を向上
メディア分析
画像キャプション
画像のテキスト説明を自動生成
意味的に関連する画像説明を生成可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase