YOLOv12:アテンション中心のリアルタイム物体検出器
YOLOv12: Attention-Centric Real-Time Object Detectors
February 18, 2025
著者: Yunjie Tian, Qixiang Ye, David Doermann
cs.AI
要旨
YOLOフレームワークのネットワークアーキテクチャの強化は長らく重要視されてきたが、その改善はCNNベースの手法に焦点が当てられてきた。これは、アテンションメカニズムのモデリング能力が優れていることが証明されているにもかかわらず、アテンションベースのモデルがCNNベースのモデルの速度に匹敵できないためである。本論文では、従来のCNNベースモデルと同等の速度を維持しつつ、アテンションメカニズムの性能上の利点を活かしたアテンション中心のYOLOフレームワーク、すなわちYOLOv12を提案する。YOLOv12は、競争力のある速度を維持しながら、すべての人気リアルタイム物体検出器を精度で上回る。例えば、YOLOv12-NはT4 GPU上で1.64 msの推論遅延で40.6%のmAPを達成し、先進的なYOLOv10-N / YOLOv11-Nを2.1%/1.2% mAPで上回りつつ、同等の速度を実現している。この優位性は他のモデルスケールにも及ぶ。YOLOv12はまた、DETRを改善したエンドツーエンドのリアルタイム検出器、例えばRT-DETR / RT-DETRv2をも凌駕する:YOLOv12-SはRT-DETR-R18 / RT-DETRv2-R18を42%高速で動作し、計算量の36%、パラメータ数の45%のみを使用しながら上回る。さらなる比較は図1に示されている。
English
Enhancing the network architecture of the YOLO framework has been crucial for
a long time, but has focused on CNN-based improvements despite the proven
superiority of attention mechanisms in modeling capabilities. This is because
attention-based models cannot match the speed of CNN-based models. This paper
proposes an attention-centric YOLO framework, namely YOLOv12, that matches the
speed of previous CNN-based ones while harnessing the performance benefits of
attention mechanisms. YOLOv12 surpasses all popular real-time object detectors
in accuracy with competitive speed. For example, YOLOv12-N achieves 40.6% mAP
with an inference latency of 1.64 ms on a T4 GPU, outperforming advanced
YOLOv10-N / YOLOv11-N by 2.1%/1.2% mAP with a comparable speed. This advantage
extends to other model scales. YOLOv12 also surpasses end-to-end real-time
detectors that improve DETR, such as RT-DETR / RT-DETRv2: YOLOv12-S beats
RT-DETR-R18 / RT-DETRv2-R18 while running 42% faster, using only 36% of the
computation and 45% of the parameters. More comparisons are shown in Figure 1.Summary
AI-Generated Summary