S

Siglip2 Base Patch16 512

googleによって開発
SigLIP 2は、意味理解、位置特定、密な特徴抽出能力を向上させるために複数の技術を統合した視覚言語モデルです。
ダウンロード数 28.01k
リリース時間 : 2/17/2025

モデル概要

SigLIP 2はSigLIPの事前学習目標に基づき、統一されたトレーニングスキームにより視覚言語タスクの性能を向上させ、ゼロショット画像分類や画像テキスト検索などのタスクに適しています。

モデル特徴

統一されたトレーニングスキーム
複数の独立して開発された技術を統合し、統一されたトレーニングスキームを形成し、意味理解、位置特定、密な特徴抽出能力を向上させました。
マルチタスクサポート
ゼロショット画像分類、画像テキスト検索などのタスクをサポートし、視覚言語モデルの視覚エンコーダとしても使用できます。
革新的なトレーニング目標
デコーダ損失、グローバル-ローカルおよびマスク予測損失、アスペクト比と解像度の適応性などの革新的なトレーニング目標を追加しました。

モデル能力

ゼロショット画像分類
画像テキスト検索
視覚エンコーディング

使用事例

画像分類
ゼロショット画像分類
候補ラベルを使用して画像を分類し、特定のカテゴリのモデルを事前にトレーニングする必要はありません。
画像テキスト検索
画像とテキストのマッチング
画像とテキストをマッチングさせ、関連する画像やテキストを検索するために使用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase