|
|
11 tháng trước cách đây | |
|---|---|---|
| assets | 11 tháng trước cách đây | |
| docker | 11 tháng trước cách đây | |
| examples | 11 tháng trước cách đây | |
| tests | 11 tháng trước cách đây | |
| ultralytics | 11 tháng trước cách đây | |
| LICENSE | 11 tháng trước cách đây | |
| README.md | 11 tháng trước cách đây | |
| mkdocs.yml | 11 tháng trước cách đây | |
| pyproject.toml | 11 tháng trước cách đây | |
| requirements.txt | 11 tháng trước cách đây |
Official PyTorch implementation of YOLOv12.
Comparisons with others in terms of latency-accuracy (left) and parameter-accuracy (right) trade-offs.
YOLOv12: Attention-Centric Real-Time Object Detector.\
Yunjie Tian, Qixiang Ye, and David Doermann\
Abstract
Enhancing the network architecture of the YOLO framework has been long crucial yet focused on CNN-based improvements, despite the proven superiority of attention mechanisms in modeling capabilities. This is because attention-based models cannot match the speed of CNN-based models. This paper proposes an attention-centric YOLO framework, namely YOLOv12, that matches the speed of CNN-based ones while harnessing the performance benefits of attention mechanisms.
YOLOv12 surpasses all popular real-time object detectors in both speed and accuracy. For example, YOLOv12-N achieves $40.4$ mAP with an inference latency of $1.4$ ms on a T4 GPU, outperforming the advanced YOLOv10-N/YOLOv11-N by $1.9/1.0$ mAP and being $x.x\%/x.x\%$ faster. This advantage extends to other model scales. Furthermore, YOLOv12-S achieves comparable accuracy to RT-DETR-R18/xxxx while running $86\%/xx\%$ faster, using only $35\%/xx\%$ of the computation and $45\%/xx\%$ of the parameters
COCO
| Model | size (pixels) | mAPval 50-95 | Speed T4 TensorRT10 | params (M) | FLOPs (B) |
|---|---|---|---|---|---|
| YOLO12n | 640 | xx.x | x.xx | 2.5 | 6.6 |
| YOLO12s | 640 | xx.x | x.xx | 8.9 | 22.0 |
| YOLO12m | 640 | xx.x | x.xx | 19.9 | 69.7 |
| YOLO12l | 640 | xx.x | x.xx | 28.3 | 97.2 |
| YOLO12x | 640 | xx.x | xx.x | 63.2 | 216.5 |