S

Siglip2 Large Patch16 256

googleによって開発
SigLIP 2 は SigLIP を改良した視覚言語モデルで、意味理解、位置特定、高密度特徴抽出能力を向上させるために複数の技術を統合しています。
ダウンロード数 10.89k
リリース時間 : 2/17/2025

モデル概要

このモデルはゼロショット画像分類、画像テキスト検索などのタスクに使用できるほか、視覚言語モデルの視覚エンコーダとしても利用可能です。

モデル特徴

強化された意味理解
意味理解能力を向上させるために複数の技術を統合しています。
改良された位置特定能力
新しい訓練目標を追加することで位置特定能力を向上させました。
高密度特徴抽出
高品質な高密度画像特徴を抽出できます。
統一訓練スキーム
独立して開発された複数の技術を統合した統一訓練スキームを採用しています。

モデル能力

ゼロショット画像分類
画像テキスト検索
画像特徴抽出

使用事例

画像分類
ゼロショット画像分類
微調整なしで画像を分類できます。
画像テキスト検索
画像検索
テキスト記述に基づいて関連画像を検索します。
視覚エンコーディング
視覚特徴抽出
他の視覚タスクに画像特徴を提供する視覚エンコーダとして機能します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase