V

Vit Base Patch32 Clip 224.metaclip 2pt5b

timmによって開発
MetaCLIP-2.5Bデータセットで訓練されたVision Transformerモデルで、open_clipとtimmフレームワークと互換性があります
ダウンロード数 5,571
リリース時間 : 10/23/2024

モデル概要

これはデュアルフレームワーク互換のVision Transformerモデルで、主にゼロショット画像分類タスクに使用され、open_clipとtimmフレームワークでの使用をサポートしています。

モデル特徴

デュアルフレームワーク互換
open_clipとtimmフレームワークを同時にサポートし、より柔軟な使用方法を提供します
大規模事前学習
MetaCLIP-2.5B大規模データセットで訓練されており、強力な視覚表現能力を持っています
高速推論
32x32のパッチサイズとquickgelu活性化関数を採用し、精度と速度のバランスを取っています

モデル能力

ゼロショット画像分類
画像特徴抽出
クロスモーダル表現学習

使用事例

コンピュータビジョン
ゼロショット画像分類
特定のクラスの訓練データがなくても新しいクラスの画像を分類できます
画像検索
テキストクエリに基づいて関連画像を検索します
マルチモーダルアプリケーション
画像とテキストのマッチング
画像とテキスト記述が一致するかどうかを判断します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase