C

CLIP ViT B 32 DataComp.XL S13b B90k

laionによって開発
これはDataComp-1BデータセットでトレーニングされたCLIP ViT-B/32モデルで、ゼロショット画像分類や画像テキスト検索などのタスクに使用されます。
ダウンロード数 12.12k
リリース時間 : 9/29/2023

モデル概要

このモデルはOpenCLIPフレームワークを使用してDataComp-1Bデータセットでトレーニングされ、研究コミュニティに研究出力を提供し、ゼロショットや任意の画像分類の探求を支援することを目的としています。

モデル特徴

大規模データトレーニング
DataComp-1Bデータセットの14億サンプルを使用してトレーニングされ、幅広い視覚概念をカバーしています。
ゼロショット能力
特定のタスクの微調整なしで画像分類や検索タスクを実行できます。
研究フレンドリー
研究コミュニティ向けに設計されており、学際的な研究や潜在的な影響分析をサポートします。

モデル能力

ゼロショット画像分類
画像テキスト検索
クロスモーダル理解
画像特徴抽出

使用事例

研究応用
ゼロショット画像分類研究
異なるカテゴリ分類法におけるモデルの性能を探求
ImageNet-1kで72.7%のゼロショットtop-1精度を達成
クロスモーダル理解研究
視覚と言語モダリティ間の関連学習を研究
潜在的な応用
画像検索システム
テキストクエリに基づいて関連画像を検索
コンテンツモデレーション支援
画像内の潜在的に有害なコンテンツを識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase