Quantisierungsrobustheit gegenüber Eingabeverschlechterungen bei der Objekterkennung
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
papers.authors: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
papers.abstract
Post-Training-Quantisierung (PTQ) ist entscheidend für die Bereitstellung effizienter Objekterkennungsmodelle wie YOLO auf ressourcenbeschränkten Geräten. Allerdings ist die Auswirkung der reduzierten Präzision auf die Robustheit des Modells gegenüber realen Eingabeverfälschungen wie Rauschen, Unschärfe und Kompressionsartefakten ein erhebliches Anliegen. Diese Arbeit präsentiert eine umfassende empirische Studie, die die Robustheit von YOLO-Modellen (von Nano bis Extra-Large) über mehrere Präzisionsformate hinweg evaluiert: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX) und Static INT8 (TensorRT). Wir führen eine degradationsbewusste Kalibrierungsstrategie für Static INT8 PTQ ein und evaluieren diese, bei der der TensorRT-Kalibrierungsprozess einer Mischung aus sauberen und synthetisch verfälschten Bildern ausgesetzt wird. Die Modelle wurden auf dem COCO-Datensatz unter sieben verschiedenen Verfälschungsbedingungen (einschließlich verschiedener Arten und Stufen von Rauschen, Unschärfe, geringem Kontrast und JPEG-Kompression) sowie einem gemischten Verfälschungsszenario getestet. Die Ergebnisse zeigen, dass Static INT8 TensorRT-Engines zwar erhebliche Geschwindigkeitssteigerungen (~1,5-3,3x) mit einem moderaten Genauigkeitsverlust (~3-7% mAP50-95) auf sauberen Daten bieten, die vorgeschlagene degradationsbewusste Kalibrierung jedoch keine konsistenten, breiten Verbesserungen der Robustheit gegenüber der Standard-Kalibrierung mit sauberen Daten über die meisten Modelle und Verfälschungen hinweg erzielte. Eine bemerkenswerte Ausnahme wurde bei größeren Modellskalen unter spezifischen Rauschbedingungen beobachtet, was darauf hindeutet, dass die Modellkapazität die Wirksamkeit dieses Kalibrierungsansatzes beeinflussen könnte. Diese Erkenntnisse unterstreichen die Herausforderungen bei der Verbesserung der PTQ-Robustheit und liefern Einblicke für die Bereitstellung quantisierter Detektoren in unkontrollierten Umgebungen. Der gesamte Code und die Auswertungstabellen sind unter https://github.com/AllanK24/QRID verfügbar.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.