M

Metaclip L14 Fullcc2.5b

facebookによって開発
MetaCLIPはCommonCrawl(CC)25億データポイントでトレーニングされた大規模視覚-言語モデルで、CLIPのデータ選別方法を解明
ダウンロード数 172
リリース時間 : 10/9/2023

モデル概要

このモデルは画像-テキスト共有埋め込み空間を構築し、ゼロショット画像分類、クロスモーダル検索などのタスクをサポート

モデル特徴

データ解明技術
CLIPのトレーニングデータ選別方法を明らかにし、OpenAIが公開しなかった技術的空白を埋めた
大規模トレーニング
CommonCrawlの25億データポイントでトレーニングされ、幅広い視覚概念をカバー
高解像度処理
14×14画像パッチ解像度をサポートし、より多くの視覚的詳細を保持

モデル能力

ゼロショット画像分類
テキストベースの画像検索
画像ベースのテキスト検索
クロスモーダル特徴抽出

使用事例

コンテンツ検索
マルチモーダル検索エンジン
自然言語クエリを通じて関連画像コンテンツを検索
インテリジェント分類
ゼロショット画像分類
特定のカテゴリのトレーニングデータがなくても新しいカテゴリを認識可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase