C

CLIP ViT B 16 CommonPool.L.clip S1b B8k

laionによって開発
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポート
ダウンロード数 138
リリース時間 : 4/26/2023

モデル概要

このモデルはCLIPアーキテクチャのバリエーションで、ViT-B-16視覚エンコーダーとテキストエンコーダーを組み合わせ、大量の画像-テキストペアでコントラスト学習により訓練され、ゼロショット画像分類とクロスモーダル検索を実現可能。

モデル特徴

ゼロショット学習能力
特定タスクのファインチューニングなしで新しい視覚タスクを実行可能
クロスモーダル理解
視覚コンテンツと自然言語記述を関連付け可能
大規模事前学習
数十億の画像-テキストペアで訓練され、広範な概念カバレッジを有する

モデル能力

ゼロショット画像分類
画像-テキストマッチング
クロスモーダル検索
視覚概念理解

使用事例

コンテンツモデレーション
自動コンテンツ分類
テキスト記述に基づき画像コンテンツを自動分類
特定の訓練なしで多様なコンテンツカテゴリを識別可能
電子商取引
視覚検索
自然言語クエリで関連製品画像を検索
ユーザー体験とコンバージョン率を向上
メディア分析
画像タグ付け
画像の記述的タグを自動生成
手動タグ付けコストを削減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase