Kwantiseringsrobuustheid tegenover invoerdegradaties voor objectdetectie
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
Auteurs: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
Samenvatting
Post-training kwantisatie (PTQ) is cruciaal voor het implementeren van efficiënte objectdetectiemodellen, zoals YOLO, op apparaten met beperkte middelen. De impact van verminderde precisie op de robuustheid van modellen tegen real-world inputdegradaties zoals ruis, vervaging en compressie-artefacten is echter een belangrijk aandachtspunt. Dit artikel presenteert een uitgebreide empirische studie die de robuustheid van YOLO-modellen (van nano tot extra-large schalen) evalueert over meerdere precisieformaten: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX) en Static INT8 (TensorRT). We introduceren en evalueren een degradatiebewuste kalibratiestrategie voor Static INT8 PTQ, waarbij het TensorRT-kalibratieproces wordt blootgesteld aan een mix van schone en synthetisch gedegradeerde afbeeldingen. Modellen werden getest op de COCO-dataset onder zeven verschillende degradatiecondities (inclusief verschillende soorten en niveaus van ruis, vervaging, laag contrast en JPEG-compressie) en een scenario met gemengde degradaties. De resultaten geven aan dat hoewel Static INT8 TensorRT-engines aanzienlijke snelheidsverbeteringen bieden (~1,5-3,3x) met een matige nauwkeurigheidsdaling (~3-7% mAP50-95) op schone data, de voorgestelde degradatiebewuste kalibratie geen consistente, brede verbeteringen in robuustheid opleverde ten opzichte van standaard kalibratie op schone data over de meeste modellen en degradaties. Een opvallende uitzondering werd waargenomen voor grotere modelschalen onder specifieke ruiscondities, wat suggereert dat modelcapaciteit de effectiviteit van deze kalibratiebenadering kan beïnvloeden. Deze bevindingen benadrukken de uitdagingen bij het verbeteren van PTQ-robuustheid en bieden inzichten voor het implementeren van gekwantiseerde detectoren in ongecontroleerde omgevingen. Alle code en evaluatietabellen zijn beschikbaar op https://github.com/AllanK24/QRID.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.