S

Siglip2 Large Patch16 512

googleによって開発
SigLIP 2はSigLIPをベースに改良されたモデルで、意味理解、位置特定、密な特徴抽出能力を向上させるために複数の技術が統合されています。
ダウンロード数 4,416
リリース時間 : 2/17/2025

モデル概要

SigLIP 2は視覚言語モデルで、ゼロショット画像分類や画像テキスト検索などのタスクに使用でき、他の視覚タスクの視覚エンコーダとしても利用可能です。

モデル特徴

改良された意味理解
意味理解能力を向上させるために複数の技術が統合されています
強化された位置特定能力
画像内のオブジェクトの位置特定能力が改善されています
密な特徴抽出
より豊富な密な特徴を抽出できます
マルチタスク適応性
ゼロショット分類や画像テキスト検索など、複数のタスクをサポートします

モデル能力

ゼロショット画像分類
画像テキスト検索
視覚的特徴抽出

使用事例

画像理解
ゼロショット画像分類
特定のトレーニングなしで画像を分類できます
カスタム候補ラベルを使用した分類をサポート
画像テキスト検索
テキストクエリに基づいて関連画像を検索します
コンピュータビジョン
視覚エンコーダ
他の視覚タスクの視覚的特徴抽出器として使用できます
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase