C

CLIP ViT L 14 CommonPool.XL S13b B90k

laionによって開発
CLIPアーキテクチャに基づく視覚-言語事前学習モデル、ゼロショット画像分類とクロスモーダル検索タスクをサポート
ダウンロード数 4,255
リリース時間 : 4/26/2023

モデル概要

このモデルはCLIPシリーズのバリアントで、ViT-L/14を視覚エンコーダーとして使用し、CommonPool.XLデータセットでトレーニングされ、強力なクロスモーダル理解能力を持っています。

モデル特徴

ゼロショット学習能力
特定タスクのファインチューニングなしで画像分類タスクを実行可能
クロスモーダル理解
画像とテキスト間の意味的関連性を理解可能
大規模事前学習
CommonPool.XLデータセット(13Bサンプル)でトレーニングされ、広範な知識カバレッジを有する

モデル能力

ゼロショット画像分類
画像-テキストマッチング
クロスモーダル検索
マルチモーダル特徴抽出

使用事例

コンテンツ検索
テキストベースの画像検索
自然言語クエリを使用して関連画像を検索
画像内容とテキスト記述を正確にマッチング可能
自動タグ付け
画像自動タグ付け
画像に対して記述的なタグを生成
画像内容に関連する意味的タグを生成可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase