C

CLIP ViT L 14 CommonPool.XL.laion S13b B90k

laionによって開発
CLIPアーキテクチャに基づく視覚-言語モデル、ゼロショット画像分類タスクをサポート、laionデータセットでトレーニング済み
ダウンロード数 176
リリース時間 : 4/26/2023

モデル概要

このモデルはCLIPアーキテクチャのバリエーションで、Vision Transformer (ViT)とテキストエンコーダーを組み合わせ、画像とテキスト間の関連性を理解でき、ゼロショット画像分類などのクロスモーダルタスクに適しています。

モデル特徴

ゼロショット学習能力
特定のタスクトレーニングなしで画像分類タスクを実行可能
クロスモーダル理解
視覚情報とテキスト情報を同時に処理・理解可能
大規模事前学習
laion-s13B-b90K大規模データセットでトレーニング済み

モデル能力

画像分類
クロスモーダル検索
画像-テキストマッチング

使用事例

コンテンツ管理
自動画像タグ付け
ラベルなし画像に自動的に記述タグを生成
電子商取引
ビジュアル検索
テキストクエリで関連製品画像を検索
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase