Siglip2 Base Patch16 512
SigLIP 2は、意味理解、位置特定、密な特徴抽出能力を向上させるために複数の技術を統合した視覚言語モデルです。
ダウンロード数 28.01k
リリース時間 : 2/17/2025
モデル概要
SigLIP 2はSigLIPの事前学習目標に基づき、統一されたトレーニングスキームにより視覚言語タスクの性能を向上させ、ゼロショット画像分類や画像テキスト検索などのタスクに適しています。
モデル特徴
統一されたトレーニングスキーム
複数の独立して開発された技術を統合し、統一されたトレーニングスキームを形成し、意味理解、位置特定、密な特徴抽出能力を向上させました。
マルチタスクサポート
ゼロショット画像分類、画像テキスト検索などのタスクをサポートし、視覚言語モデルの視覚エンコーダとしても使用できます。
革新的なトレーニング目標
デコーダ損失、グローバル-ローカルおよびマスク予測損失、アスペクト比と解像度の適応性などの革新的なトレーニング目標を追加しました。
モデル能力
ゼロショット画像分類
画像テキスト検索
視覚エンコーディング
使用事例
画像分類
ゼロショット画像分類
候補ラベルを使用して画像を分類し、特定のカテゴリのモデルを事前にトレーニングする必要はありません。
画像テキスト検索
画像とテキストのマッチング
画像とテキストをマッチングさせ、関連する画像やテキストを検索するために使用します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98