M

Metaclip B16 400m

facebookによって開発
MetaCLIPはCommonCrawlデータで訓練された視覚-言語モデルで、画像-テキスト共有埋め込み空間を構築するために使用されます
ダウンロード数 51
リリース時間 : 10/9/2023

モデル概要

このモデルはMetaCLIPフレームワークをCommonCrawlの4億データポイントに適用し、CLIP訓練データの選別方法を明らかにし、画像とテキストのクロスモーダル理解をサポートします

モデル特徴

公開データ訓練
CommonCrawl公開データセットを使用して訓練され、データの透明性が高い
クロスモーダル理解
視覚情報とテキスト情報を同時に処理し、共有埋め込み空間を構築できる
ゼロショット学習
特定のタスク訓練なしで新しいタスクを実行可能

モデル能力

ゼロショット画像分類
テキストに基づく画像検索
画像に基づくテキスト検索
クロスモーダル特徴抽出

使用事例

コンテンツ検索
画像検索エンジン
自然言語記述を使用して関連画像を検索
インテリジェントタグ付け
自動画像タグ付け
未タグ付け画像に記述的タグを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase