V

Vit Huge Patch14 Clip 224.metaclip 2pt5b

timmによって開発
MetaCLIP-2.5Bデータセットで訓練されたデュアルユースの視覚言語モデル、ゼロショット画像分類タスクをサポート
ダウンロード数 3,173
リリース時間 : 10/23/2024

モデル概要

このモデルはOpenCLIPとtimmフレームワーク互換のVision Transformerモデルで、主にゼロショット画像分類タスクに使用され、強力なクロスモーダル理解能力を備えています。

モデル特徴

デュアルフレームワーク互換
OpenCLIPとtimmフレームワークを同時サポート、柔軟な使用方法を提供
大規模事前学習
MetaCLIP-2.5B大規模データセットで訓練、強力な視覚言語理解能力を有する
ゼロショット学習
特定タスクのファインチューニング不要でゼロショット画像分類タスクをサポート
効率的なアーキテクチャ
Vision Transformer Hugeアーキテクチャを採用、quickgelu活性化関数で性能と効率をバランス

モデル能力

ゼロショット画像分類
クロスモーダル理解
画像特徴抽出

使用事例

コンピュータビジョン
画像分類
未見の画像カテゴリを分類、追加訓練不要
ゼロショット設定で高精度分類を実現
クロスモーダル検索
画像とテキスト間のクロスモーダル検索を実現
コンテンツ理解
自動タグ付け
画像に記述的タグを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase