V

Vit Base Patch16 Clip 224.laion400m E32

timmによって開発
LAION-400Mデータセットで学習されたVision Transformerモデル、open_clipとtimmフレームワークに互換
ダウンロード数 5,751
リリース時間 : 10/23/2024

モデル概要

これはデュアルフレームワーク互換の視覚Transformerモデルで、主にゼロショット画像分類タスクに使用されます。モデルはViT-B-16アーキテクチャを採用し、LAION-400M大規模データセットで学習されています。

モデル特徴

デュアルフレームワーク互換
open_clipとtimmフレームワークを同時にサポートし、より柔軟な使用方法を提供
大規模学習データ
LAION-400Mデータセットを使用して学習し、幅広い視覚概念をカバー
ゼロショット分類能力
特定タスクのファインチューニングなしで画像分類タスクを実行可能

モデル能力

ゼロショット画像分類
視覚特徴抽出
画像-テキストアラインメント

使用事例

画像理解
ゼロショット画像分類
特定カテゴリの学習なしで新規カテゴリの画像を分類
画像検索
テキストクエリに基づいて関連画像を検索
マルチモーダルアプリケーション
画像キャプション
画像に対して記述的なテキストラベルを生成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase