Vit Large Patch16 Siglip 384.v2 Webli
SigLIP 2アーキテクチャに基づく視覚Transformerモデル、画像特徴抽出のために設計され、webliデータセットで事前学習済み
Downloads 4,265
Release Time : 2/21/2025
Model Overview
このモデルはSigLIP 2論文で説明された視覚エンコーダ部分で、ViT-Largeアーキテクチャを採用し、効率的な画像特徴抽出とマルチモーダル理解能力に焦点を当てています
Model Features
SigLIP 2アーキテクチャ
改良されたSigmoid損失関数を使用した事前学習により、モデルのマルチモーダル理解能力を強化
高解像度処理
384x384解像度の入力をサポート、高品質画像の処理に適しています
高密度特徴抽出
豊富な画像特徴表現を生成可能、下流の視覚タスクに適用可能
Model Capabilities
画像特徴抽出
マルチモーダル理解
視覚的意味エンコーディング
Use Cases
コンピュータビジョン
画像検索
抽出した画像特徴を利用して類似画像検索を実施
高精度な検索効果
視覚的質問応答
マルチモーダル質問応答システムの視覚エンコーダとして使用
質問応答の精度向上
マルチモーダルアプリケーション
画像テキストマッチング
画像とテキスト記述のマッチング度合いを評価
改善されたクロスモーダルアライメント能力
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98