ChatPaper.aiChatPaper

Quantisierungsrobustheit gegenüber Eingabeverschlechterungen bei der Objekterkennung

Quantization Robustness to Input Degradations for Object Detection

August 27, 2025
papers.authors: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI

papers.abstract

Post-Training-Quantisierung (PTQ) ist entscheidend für die Bereitstellung effizienter Objekterkennungsmodelle wie YOLO auf ressourcenbeschränkten Geräten. Allerdings ist die Auswirkung der reduzierten Präzision auf die Robustheit des Modells gegenüber realen Eingabeverfälschungen wie Rauschen, Unschärfe und Kompressionsartefakten ein erhebliches Anliegen. Diese Arbeit präsentiert eine umfassende empirische Studie, die die Robustheit von YOLO-Modellen (von Nano bis Extra-Large) über mehrere Präzisionsformate hinweg evaluiert: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX) und Static INT8 (TensorRT). Wir führen eine degradationsbewusste Kalibrierungsstrategie für Static INT8 PTQ ein und evaluieren diese, bei der der TensorRT-Kalibrierungsprozess einer Mischung aus sauberen und synthetisch verfälschten Bildern ausgesetzt wird. Die Modelle wurden auf dem COCO-Datensatz unter sieben verschiedenen Verfälschungsbedingungen (einschließlich verschiedener Arten und Stufen von Rauschen, Unschärfe, geringem Kontrast und JPEG-Kompression) sowie einem gemischten Verfälschungsszenario getestet. Die Ergebnisse zeigen, dass Static INT8 TensorRT-Engines zwar erhebliche Geschwindigkeitssteigerungen (~1,5-3,3x) mit einem moderaten Genauigkeitsverlust (~3-7% mAP50-95) auf sauberen Daten bieten, die vorgeschlagene degradationsbewusste Kalibrierung jedoch keine konsistenten, breiten Verbesserungen der Robustheit gegenüber der Standard-Kalibrierung mit sauberen Daten über die meisten Modelle und Verfälschungen hinweg erzielte. Eine bemerkenswerte Ausnahme wurde bei größeren Modellskalen unter spezifischen Rauschbedingungen beobachtet, was darauf hindeutet, dass die Modellkapazität die Wirksamkeit dieses Kalibrierungsansatzes beeinflussen könnte. Diese Erkenntnisse unterstreichen die Herausforderungen bei der Verbesserung der PTQ-Robustheit und liefern Einblicke für die Bereitstellung quantisierter Detektoren in unkontrollierten Umgebungen. Der gesamte Code und die Auswertungstabellen sind unter https://github.com/AllanK24/QRID verfügbar.
English
Post-training quantization (PTQ) is crucial for deploying efficient object detection models, like YOLO, on resource-constrained devices. However, the impact of reduced precision on model robustness to real-world input degradations such as noise, blur, and compression artifacts is a significant concern. This paper presents a comprehensive empirical study evaluating the robustness of YOLO models (nano to extra-large scales) across multiple precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8 (TensorRT). We introduce and evaluate a degradation-aware calibration strategy for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix of clean and synthetically degraded images. Models were benchmarked on the COCO dataset under seven distinct degradation conditions (including various types and levels of noise, blur, low contrast, and JPEG compression) and a mixed-degradation scenario. Results indicate that while Static INT8 TensorRT engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop (~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did not yield consistent, broad improvements in robustness over standard clean-data calibration across most models and degradations. A notable exception was observed for larger model scales under specific noise conditions, suggesting model capacity may influence the efficacy of this calibration approach. These findings highlight the challenges in enhancing PTQ robustness and provide insights for deploying quantized detectors in uncontrolled environments. All code and evaluation tables are available at https://github.com/AllanK24/QRID.
PDF02September 1, 2025