Y

Yolos Base

hustvlによって開発
YOLOSは視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失で訓練され、COCOデータセットで42 APの性能を達成しています。
ダウンロード数 2,638
リリース時間 : 4/26/2022

モデル概要

YOLOSはDETR損失で訓練された視覚Transformer(ViT)で、物体検出タスク向けに設計されています。このモデルはCOCO 2017検証セットで優れた性能を示し、DETRやFaster R-CNNなどの複雑なフレームワークと同等の性能を持っています。

モデル特徴

Transformerベースの物体検出
YOLOSは視覚Transformerアーキテクチャを採用し、物体検出タスクをシーケンス予測問題に変換することで、従来の検出フレームワークの複雑さを簡素化しています。
ハンガリアン損失
ハンガリアンマッチングアルゴリズムを使用して予測とアノテーション間の最適な対応関係を確立し、交差エントロピー損失とL1および一般化IoU損失を組み合わせてモデルパラメータを最適化します。
高性能
COCO 2017検証セットで42 APの性能を達成し、DETRやより複雑なFaster R-CNNフレームワークと同等です。

モデル能力

物体検出
画像分析
バウンディングボックス予測

使用事例

コンピュータビジョン
シーン理解
画像内の物体とその位置を検出し、監視や自動運転などのシナリオに適用できます。
画像内の複数の物体を正確に識別し位置特定できます。
画像アノテーション
物体のカテゴリと位置を含むアノテーション情報を自動生成します。
高品質な画像アノテーションを提供し、手動アノテーションのコストを削減します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase