Yolov5n Valorant
YOLOv5nベースの小型オブジェクト検出モデルで、Valorantゲーム内のオブジェクト検出に特化しています。
ダウンロード数 97
リリース時間 : 12/28/2022
モデル概要
このモデルはYOLOv5アーキテクチャに基づくオブジェクト検出モデルで、Valorantゲーム内のオブジェクト検出に最適化されており、ゲーム内の様々な要素を効率的に識別できます。
モデル特徴
高効率検出
Valorantゲームシーンに最適化されており、ゲーム内の様々なオブジェクトを迅速かつ正確に検出できます。
軽量
YOLOv5nアーキテクチャに基づき、モデルサイズが小さく、リソースが限られた環境での展開に適しています。
高精度
検証セットで0.959のmAP@0.5を達成し、優れた性能を発揮します。
モデル能力
ゲームオブジェクト検出
リアルタイムオブジェクト認識
複数オブジェクト同時検出
使用事例
ゲーム分析
Valorantゲーム画面分析
ゲーム内のキャラクターや武器などの要素を自動識別
ゲームリプレイ分析やトレーニング支援に利用可能
コンピュータビジョン応用
リアルタイムオブジェクト検出システム
ゲーム画面に基づくリアルタイム検出システムの構築
## 🚀 keremberke/yolov5n-valorant
このモデルは、YOLOv5をベースにした物体検出モデルです。Valorantの物体検出タスクに特化しており、高精度な検出結果を提供します。
## 🚀 クイックスタート
### モデルのインストールと使用
- [yolov5](https://github.com/fcakyon/yolov5-pip) をインストールします。
```bash
pip install -U yolov5
- モデルをロードして予測を実行します。
import yolov5
# load model
model = yolov5.load('keremberke/yolov5n-valorant')
# set model parameters
model.conf = 0.25 # NMS confidence threshold
model.iou = 0.45 # NMS IoU threshold
model.agnostic = False # NMS class-agnostic
model.multi_label = False # NMS multiple labels per box
model.max_det = 1000 # maximum number of detections per image
# set image
img = 'https://github.com/ultralytics/yolov5/raw/master/data/images/zidane.jpg'
# perform inference
results = model(img, size=640)
# inference with test time augmentation
results = model(img, augment=True)
# parse results
predictions = results.pred[0]
boxes = predictions[:, :4] # x1, y1, x2, y2
scores = predictions[:, 4]
categories = predictions[:, 5]
# show detection bounding boxes on image
results.show()
# save results into "results/" folder
results.save(save_dir='results/')
- 独自のデータセットでモデルを微調整します。
yolov5 train --data data.yaml --img 640 --batch 16 --weights keremberke/yolov5n-valorant --epochs 10
他のモデルはこちら: awesome-yolov5-models
📦 インストール
ライブラリのインストール
pip install -U yolov5
💻 使用例
基本的な使用法
import yolov5
# load model
model = yolov5.load('keremberke/yolov5n-valorant')
# set model parameters
model.conf = 0.25 # NMS confidence threshold
model.iou = 0.45 # NMS IoU threshold
model.agnostic = False # NMS class-agnostic
model.multi_label = False # NMS multiple labels per box
model.max_det = 1000 # maximum number of detections per image
# set image
img = 'https://github.com/ultralytics/yolov5/raw/master/data/images/zidane.jpg'
# perform inference
results = model(img, size=640)
# show detection bounding boxes on image
results.show()
# save results into "results/" folder
results.save(save_dir='results/')
高度な使用法
# テスト時のデータ拡張を使用した推論
results = model(img, augment=True)
# 結果の解析
predictions = results.pred[0]
boxes = predictions[:, :4] # x1, y1, x2, y2
scores = predictions[:, 4]
categories = predictions[:, 5]
📚 ドキュメント
モデル情報
プロパティ | 詳細 |
---|---|
モデルタイプ | YOLOv5 |
訓練データセット | keremberke/valorant-object-detection |
評価指標 | mAP@0.5: 0.9591260700013188 |
Table Transformer Detection
MIT
DETRアーキテクチャに基づくテーブル検出モデルで、非構造化文書からテーブルを抽出するために特別に設計されています
物体検出
Transformers

T
microsoft
2.6M
349
Grounding Dino Base
Apache-2.0
Grounding DINOはオープンセット物体検出モデルで、DINO検出器とテキストエンコーダを組み合わせることでゼロショット物体検出能力を実現しています。
物体検出
Transformers

G
IDEA-Research
1.1M
87
Grounding Dino Tiny
Apache-2.0
Grounding DINOはDINO検出器とグラウンディング事前学習を組み合わせたオープンセット物体検出モデルで、ゼロショット物体検出を実現できます。
物体検出
Transformers

G
IDEA-Research
771.67k
74
Detr Resnet 50
Apache-2.0
DETRはTransformerアーキテクチャに基づくエンドツーエンド物体検出モデルで、ResNet-50をバックボーンとして使用し、COCOデータセットでトレーニングされています。
物体検出
Transformers

D
facebook
505.27k
857
Detr Resnet 101
Apache-2.0
DETRはTransformerアーキテクチャを使用したエンドツーエンド物体検出モデルで、ResNet-101をバックボーンとしてCOCOデータセットでトレーニングされています。
物体検出
Transformers

D
facebook
262.94k
119
Detr Doc Table Detection
Apache-2.0
DETRアーキテクチャに基づく文書テーブル検出モデル、文書内の枠あり・枠なしテーブルを検出
物体検出
Transformers

D
TahaDouaji
233.45k
59
Yolos Small
Apache-2.0
視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失関数を使用して訓練され、COCOデータセットで優れた性能を発揮します。
物体検出
Transformers

Y
hustvl
154.46k
63
Yolos Tiny
Apache-2.0
COCO 2017物体検出データセットでファインチューニングされたYOLOSモデル、Vision Transformerアーキテクチャを使用した効率的な物体検出を実現。
物体検出
Transformers

Y
hustvl
144.58k
266
Rtdetr R50vd Coco O365
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダーと不確実性最小化クエリ選択メカニズムにより、COCOデータセットで53.1% AP、108 FPSの性能を達成しました。
物体検出
Transformers 英語

R
PekingU
111.17k
11
Rtdetr R101vd Coco O365
Apache-2.0
初のリアルタイムエンドツーエンド物体検出器、Transformerアーキテクチャに基づき、非極大抑制の必要性を排除、速度と精度でYOLOシリーズを凌駕
物体検出
Transformers 英語

R
PekingU
106.81k
7
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98