C

CLIP ViT B 32 CommonPool.S.laion S13m B4k

laionによって開発
CLIPアーキテクチャに基づく視覚言語モデルで、ゼロショット画像分類タスクをサポート
ダウンロード数 58
リリース時間 : 4/26/2023

モデル概要

このモデルはCLIPアーキテクチャのバリエーションで、ViT-B-32視覚エンコーダーとテキストエンコーダーを組み合わせ、画像-テキストペアでコントラスト学習により訓練され、ゼロショット画像分類とクロスモーダル検索を実現可能。

モデル特徴

ゼロショット学習能力
特定タスクのファインチューニング不要で新しい画像分類タスクに直接適用可能
クロスモーダル理解
視覚情報とテキスト情報を同時に理解し、画像-テキストマッチングを実現
効率的なアーキテクチャ
ViT-B-32視覚エンコーダーに基づき、性能と計算効率のバランスを実現

モデル能力

ゼロショット画像分類
画像-テキストマッチング
クロスモーダル検索

使用事例

コンテンツ検索
画像検索エンジン
自然言語クエリを使用して関連画像を検索
事前定義ラベル不要で柔軟な検索を実現
自動タグ付け
画像自動タグ付け
未タグ付け画像に記述的タグを生成
手動タグ付け作業を削減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase