S

Siglip2 So400m Patch16 512

googleによって開発
SigLIP 2はSigLIPを基盤とした視覚言語モデルで、意味理解、位置特定、高密度特徴抽出能力が強化されています。
ダウンロード数 46.46k
リリース時間 : 2/17/2025

モデル概要

このモデルはゼロショット画像分類や画像テキスト検索などのタスクに使用可能で、視覚言語モデルの視覚エンコーダーとしても利用できます。

モデル特徴

強化された意味理解
複数の技術を統合し意味理解能力を向上
位置特定能力
画像内オブジェクトの位置特定能力を改善
高密度特徴抽出
より豊富な画像特徴を抽出可能
統合トレーニング手法
複数のトレーニング目標を統合した手法

モデル能力

ゼロショット画像分類
画像テキスト検索
視覚特徴抽出

使用事例

画像分類
ゼロショット画像分類
トレーニング不要で画像を分類
カスタム候補ラベルをサポート
視覚言語タスク
視覚エンコーダー
他の視覚言語モデルの視覚エンコーダーとして使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase