Robustezza della quantizzazione alle degradazioni dell'input per il rilevamento di oggetti
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
Autori: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
Abstract
La quantizzazione post-addestramento (PTQ) è cruciale per il dispiegamento di modelli efficienti di rilevamento oggetti, come YOLO, su dispositivi con risorse limitate. Tuttavia, l'impatto della ridotta precisione sulla robustezza del modello rispetto a degradazioni degli input del mondo reale, come rumore, sfocatura e artefatti di compressione, rappresenta una preoccupazione significativa. Questo articolo presenta uno studio empirico completo che valuta la robustezza dei modelli YOLO (dalla scala nano a extra-large) attraverso molteplici formati di precisione: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX) e Static INT8 (TensorRT). Introduciamo e valutiamo una strategia di calibrazione consapevole della degradazione per la PTQ Static INT8, in cui il processo di calibrazione TensorRT è esposto a un mix di immagini pulite e sinteticamente degradate. I modelli sono stati valutati sul dataset COCO in sette condizioni di degradazione distinte (inclusi vari tipi e livelli di rumore, sfocatura, basso contrasto e compressione JPEG) e uno scenario di degradazione mista. I risultati indicano che, sebbene i motori Static INT8 TensorRT offrano accelerazioni sostanziali (~1.5-3.3x) con una moderata riduzione dell'accuratezza (~3-7% mAP50-95) sui dati puliti, la calibrazione consapevole della degradazione proposta non ha prodotto miglioramenti consistenti e ampi nella robustezza rispetto alla calibrazione standard su dati puliti nella maggior parte dei modelli e delle degradazioni. Un'eccezione notevole è stata osservata per le scale di modello più grandi in condizioni specifiche di rumore, suggerendo che la capacità del modello possa influenzare l'efficacia di questo approccio di calibrazione. Questi risultati evidenziano le sfide nel migliorare la robustezza della PTQ e forniscono spunti per il dispiegamento di rilevatori quantizzati in ambienti non controllati. Tutto il codice e le tabelle di valutazione sono disponibili su https://github.com/AllanK24/QRID.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.