O

Owlv2 Large Patch14

googleによって開発
OWLv2はゼロショットのテキスト条件付き物体検出モデルで、テキストクエリを使用して画像内のオブジェクトを検出でき、特定カテゴリの訓練データを必要としません。
ダウンロード数 3,679
リリース時間 : 10/13/2023

モデル概要

OWLv2はCLIPベースのオープン語彙物体検出モデルで、ViT-L/14を視覚エンコーダーとして使用し、自然言語の記述を通じて画像内のオブジェクトを検出できます。

モデル特徴

ゼロショット検出能力
特定カテゴリの訓練データが不要で、テキスト記述だけで新しいカテゴリのオブジェクトを検出可能
オープン語彙理解
訓練データに存在しないオブジェクトカテゴリを理解し検出できる
マルチクエリ検出
複数のテキストクエリを同時に使用したオブジェクト検出をサポート

モデル能力

画像内の物体検出
テキスト条件付き物体位置特定
オープン語彙認識
複数カテゴリ同時検出

使用事例

コンピュータビジョン研究
ゼロショット物体検出研究
未見カテゴリにおけるモデルの検出能力を研究
産業応用
在庫管理
自然言語記述で倉庫内の物品を検出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase