C

CLIP ViT B 32 CommonPool.M.text S128m B4k

laionによって開発
CLIPアーキテクチャに基づく視覚-言語モデルで、ゼロショット画像分類タスクをサポート
ダウンロード数 68
リリース時間 : 4/26/2023

モデル概要

このモデルはCLIPアーキテクチャの変種で、視覚Transformer(ViT)とテキストエンコーダーを組み合わせており、画像とテキストの関連性を理解でき、クロスモーダル検索や分類タスクに適しています。

モデル特徴

ゼロショット学習能力
特定タスクのファインチューニングなしで新しい画像分類タスクを実行可能
クロスモーダル理解
視覚情報とテキスト情報を同時に処理・理解可能
効率的なアーキテクチャ
ViT-B/32ベースの視覚エンコーダーで、性能と計算効率のバランスが取れている

モデル能力

画像分類
クロスモーダル検索
ゼロショット学習
画像-テキストマッチング

使用事例

コンテンツ検索
テキストベースの画像検索
自然言語記述を使用して関連画像を検索
自動タグ付け
画像自動タグ付け
画像に記述的なタグを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase