M

Minh

minh14122003によって開発
YOLOSは視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失で訓練され、COCOデータセットで優れた性能を発揮します。
ダウンロード数 14
リリース時間 : 12/1/2024

モデル概要

YOLOSはDETR損失で訓練された視覚Transformerモデルで、物体検出タスク専用に設計されており、画像中の物体を直接検出できます。

モデル特徴

Transformerベースの視覚モデル
視覚Transformerアーキテクチャを採用し、画像をシーケンスデータとして処理することで、エンドツーエンドの物体検出を実現。
ハンガリアン損失による訓練
ハンガリアンマッチングアルゴリズムを使用してクエリとアノテーションのマッピングを最適化し、交差エントロピーとバウンディングボックス損失を組み合わせて訓練。
シンプルで効率的
構造はシンプルだが性能は優れており、Faster R-CNNなどの複雑なフレームワークと同等の性能。

モデル能力

物体検出
画像解析
物体位置特定

使用事例

汎用物体検出
日常シーンでの物体検出
画像中の人物、動物、乗り物などの一般的な物体を検出。
COCO検証セットで28.7 APを達成
監視カメラ映像解析
監視映像中の物体検出と追跡に使用。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase