M

Metaclip B32 400m

facebookによって開発
MetaCLIP基本モデルはCommonCrawlデータでトレーニングされた視覚-言語モデルで、画像-テキスト共有埋め込み空間を構築します。
ダウンロード数 135.37k
リリース時間 : 10/7/2023

モデル概要

このモデルはMetaCLIP技術を4億のデータポイントに適用し、ゼロショット画像分類やテキストベースの画像検索などのタスクをサポートします。

モデル特徴

大規模データトレーニング
CommonCrawlの4億データポイントでトレーニングされ、強力な汎化能力を有する
ゼロショット学習能力
特定タスクのファインチューニングなしで多様な視覚タスクを実行可能
共有埋め込み空間
画像とテキストの統一表現空間を構築し、クロスモーダル検索をサポート

モデル能力

ゼロショット画像分類
テキストベースの画像検索
画像ベースのテキスト検索
クロスモーダル表現学習

使用事例

コンテンツ検索
画像検索エンジン
自然言語記述を使用して関連画像を検索
コンテンツ分類
ゼロショット画像分類
トレーニングなしで新規カテゴリの画像を分類
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase