🚀 YOLOv8零售環境貨架目標檢測模型
本模型專為零售環境設計,能夠精準檢測貨架上的商品,實現即時庫存管理和貨架佈局優化,為零售運營帶來極大便利。
🚀 快速開始
若要使用YOLOv8貨架目標檢測模型開啟零售魔法之旅,請遵循以下步驟:
pip install ultralyticsplus==0.0.28 ultralytics==8.0.43
from ultralyticsplus import YOLO, render_result
import cv2
model = YOLO('foduucom/shelf-object-detection-yolov8')
model.overrides['conf'] = 0.25
model.overrides['iou'] = 0.45
model.overrides['agnostic_nms'] = False
model.overrides['max_det'] = 1000
image = "path/to/your/shelf/image"
while cap.isOpened():
success, frame = cap.read()
if success:
results = model(frame)
annotated_frame = results[0].plot()
cv2.imshow("YOLOv8 Retail Wizardry", annotated_frame)
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
break
cap.release()
cv2.destroyAllWindows()
✨ 主要特性
- 精準檢測:如同擁有第六感一般,能夠精準找到貨架上的商品,無論是一罐泡菜還是最新的小工具,都能輕鬆識別。
- 數量統計:具備強大的計數能力,助力實現完美的零售庫存管理。
- 即時應用:可集成到零售系統中,實現即時庫存管理、貨架優化和自動補貨。
📦 安裝指南
運行以下命令進行安裝:
pip install ultralyticsplus==0.0.28 ultralytics==8.0.43
💻 使用示例
基礎用法
from ultralyticsplus import YOLO, render_result
import cv2
model = YOLO('foduucom/shelf-object-detection-yolov8')
model.overrides['conf'] = 0.25
model.overrides['iou'] = 0.45
model.overrides['agnostic_nms'] = False
model.overrides['max_det'] = 1000
image = "path/to/your/shelf/image"
高級用法
while cap.isOpened():
success, frame = cap.read()
if success:
results = model(frame)
annotated_frame = results[0].plot()
cv2.imshow("YOLOv8 Retail Wizardry", annotated_frame)
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
break
cap.release()
cv2.destroyAllWindows()
📚 詳細文檔
支持的標籤
['Empty Shelves', 'Magical Products']
用途
直接使用
將此模型集成到你的零售系統中,實現即時庫存管理、貨架優化和自動補貨。
下游應用
可用於優化貨架佈局、揭示商品擺放奧秘,為顧客帶來更好的購物體驗。
注意事項
⚠️ 重要提示
- 該模型可能在複雜光照和混亂貨架環境下表現不佳,請保持貨架整潔!
- 商品快速變化和貨架動態可能會影響其準確性。
💡 使用建議
在實際應用前,請在你的零售環境中進行測試和調整。
🔧 技術細節
屬性 |
詳情 |
模型類型 |
目標檢測 |
訓練數據 |
未提及 |
精度 |
mAP@0.5(box)為0.91 |
📄 許可證
未提及相關許可證信息。
模型作者 🧙♂️
YOLOv8貨架目標檢測模型由FODUU AI的專家打造。
@ModelCard{
author = {Nehul Agrawal and
Pranjal Singh Thakur},
title = {YOLOv8 Shelf Object Detection in Retail Environments},
year = {2023}
}
加入零售魔法世界,如有任何問題或想做出貢獻,請發送郵件至 info@foduu.com。