S

Siglip2 So400m Patch14 384

googleによって開発
SigLIP 2はSigLIP事前学習目標に基づく視覚言語モデルで、意味理解、位置特定、密な特徴抽出能力を向上させるために複数の技術を統合しています。
ダウンロード数 622.54k
リリース時間 : 2/17/2025

モデル概要

このモデルはゼロショット画像分類、画像テキスト検索などのタスクに使用でき、視覚言語モデルの視覚エンコーダーとしても利用可能です。

モデル特徴

強化された意味理解
意味理解能力を向上させるために複数の技術を統合
位置特定能力
改良された位置特定能力により、より正確な画像分析が可能
密な特徴抽出
より豊富な画像特徴を抽出可能
統一トレーニングスキーム
以前は独立して開発されていた技術を統合し、統一されたトレーニングスキームを形成

モデル能力

ゼロショット画像分類
画像テキスト検索
視覚的特徴抽出

使用事例

画像分析
ゼロショット画像分類
トレーニングなしで新しいカテゴリの画像を分類
画像テキスト検索
テキストクエリに基づいて関連画像を検索
コンピュータビジョン
視覚エンコーダー
他の視覚言語モデルの視覚エンコーディングコンポーネントとして使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase