V

Vit So400m Patch14 Siglip 224.v2 Webli

timmによって開発
SigLIP 2アーキテクチャに基づく視覚Transformerモデルで、画像特徴抽出のために設計され、webliデータセットで事前学習されています。
ダウンロード数 7,005
リリース時間 : 2/21/2025

モデル概要

このモデルはSigLIP 2の視覚エンコーダー部分で、ViTアーキテクチャを採用し、画像理解と特徴抽出タスクに適しています。

モデル特徴

SigLIP 2拡張
改良されたSigLIP 2アーキテクチャを採用し、強化された意味理解と位置特定能力を備えています
高密度特徴抽出
画像の高密度特徴表現を抽出できます
大規模事前学習
webli大規模データセットで事前学習されています

モデル能力

画像特徴抽出
視覚的意味理解
画像位置特定

使用事例

コンピュータビジョン
画像検索
抽出した画像特徴を利用して類似画像を検索します
視覚的質問応答
視覚的質問応答システムの視覚エンコーダーとして使用されます
マルチモーダルアプリケーション
画像とテキストのマッチング
テキストエンコーダーと連携して画像とテキストのマッチングタスクを実現します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase