V

Vit Base Patch32 Clip 224.laion400m E32

timmによって開発
LAION-400Mデータセットで訓練されたVision Transformerモデル、OpenCLIPとtimmのデュアルフレームワークに対応
ダウンロード数 5,957
リリース時間 : 10/23/2024

モデル概要

これはVision Transformerアーキテクチャに基づく視覚言語モデルで、主にゼロショット画像分類タスクに使用されます。モデルはLAION-400Mデータセットで訓練され、OpenCLIPとtimmの2つのフレームワークで使用可能です。

モデル特徴

デュアルフレームワーク互換
OpenCLIPとtimmフレームワークの両方に対応し、より柔軟なアプリケーションシナリオを提供
ゼロショット学習
ファインチューニングなしで新しい画像分類タスクに直接適用可能
大規模事前学習
LAION-400M大規模データセットで事前学習されており、強力な視覚表現能力を有する

モデル能力

画像分類
ゼロショット学習
視覚特徴抽出

使用事例

画像理解
ゼロショット画像分類
特定のクラス訓練データなしで新しいクラスの画像を分類可能
画像検索
視覚的類似性に基づく画像検索
マルチモーダルアプリケーション
画像テキストマッチング
画像とテキスト記述が一致するかどうかを判断
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase