Y

Yolos Small

hustvlによって開発
視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失関数を使用して訓練され、COCOデータセットで優れた性能を発揮します。
ダウンロード数 154.46k
リリース時間 : 4/26/2022

モデル概要

YOLOSは、物体検出タスクのために設計されたシンプルで効率的な視覚Transformerモデルです。DETRスタイルのハンガリアン損失を使用して訓練され、COCOデータセットでDETRやFaster R-CNNと同等の検出精度を達成します。

モデル特徴

Transformerアーキテクチャ
純粋な視覚Transformer構造を採用し、従来のCNNコンポーネントなしで効率的な物体検出を実現
ハンガリアン損失
ハンガリアンアルゴリズムを使用して予測とアノテーションの最適マッチングを行い、クロスエントロピーとバウンディングボックス損失を組み合わせたエンドツーエンド訓練を実施
シンプルな設計
構造はシンプルですが性能が高く、基本サイズのモデルはCOCOで42 APを達成

モデル能力

画像内の複数物体検出
バウンディングボックス予測
物体分類

使用事例

シーン理解
監視カメラ映像分析
監視画面内の歩行者や車両などの物体をリアルタイムで検出
自動運転の環境認識
道路環境中の交通参加者や障害物を識別
コンテンツ分析
画像コンテンツ審査
画像内の特定物体やセンシティブなコンテンツを検出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase