V

Vit H 14 CLIPA Datacomp1b

UCSC-VLAAによって開発
CLIPA-v2モデル、効率的なコントラスト型画像テキストモデルで、ゼロショット画像分類タスク向けに設計されています。
ダウンロード数 65
リリース時間 : 10/17/2023

モデル概要

このモデルはCLIPA-v2アーキテクチャに基づくコントラスト型画像テキストモデルで、主にゼロショット画像分類タスクに使用されます。コントラスト学習を通じて画像とテキストを同じ特徴空間にマッピングし、特定のタスクトレーニングなしでゼロショット分類を実現します。

モデル特徴

効率的なゼロショット分類
特定のタスクトレーニングなしで画像分類を実現
大規模データトレーニング
mlfoundations/datacomp_1bデータセットに基づいてトレーニング
高精度
ImageNetで81.1%のゼロショット精度を達成
コスト効率が高い
低予算で高性能を実現

モデル能力

ゼロショット画像分類
画像-テキストマッチング
マルチモーダル特徴抽出

使用事例

画像分類
ゼロショット物体認識
トレーニングなしで新規カテゴリの物体を認識
例ではフレンチドーナツを正確に識別
マルチモーダルアプリケーション
画像検索
テキストクエリで関連画像を検索
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase