Robustesse de la quantification face aux dégradations d'entrée pour la détection d'objets
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
papers.authors: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
papers.abstract
La quantification post-entraînement (PTQ) est cruciale pour déployer des modèles de détection d'objets efficaces, comme YOLO, sur des appareils aux ressources limitées. Cependant, l'impact de la réduction de précision sur la robustesse des modèles face à des dégradations d'entrée du monde réel, telles que le bruit, le flou et les artefacts de compression, est une préoccupation majeure. Cet article présente une étude empirique complète évaluant la robustesse des modèles YOLO (de l'échelle nano à extra-large) à travers plusieurs formats de précision : FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX) et Static INT8 (TensorRT). Nous introduisons et évaluons une stratégie de calibration sensible aux dégradations pour la PTQ en Static INT8, où le processus de calibration TensorRT est exposé à un mélange d'images propres et synthétiquement dégradées. Les modèles ont été évalués sur le jeu de données COCO dans sept conditions de dégradation distinctes (incluant divers types et niveaux de bruit, de flou, de faible contraste et de compression JPEG) ainsi qu'un scénario de dégradation mixte. Les résultats indiquent que bien que les moteurs Static INT8 TensorRT offrent des accélérations substantielles (~1,5-3,3x) avec une baisse modérée de précision (~3-7% mAP50-95) sur des données propres, la calibration sensible aux dégradations proposée n'a pas permis d'obtenir des améliorations de robustesse cohérentes et généralisées par rapport à la calibration standard sur données propres pour la plupart des modèles et des dégradations. Une exception notable a été observée pour les modèles de plus grande échelle dans des conditions de bruit spécifiques, suggérant que la capacité du modèle pourrait influencer l'efficacité de cette approche de calibration. Ces résultats mettent en lumière les défis liés à l'amélioration de la robustesse de la PTQ et fournissent des insights pour le déploiement de détecteurs quantifiés dans des environnements non contrôlés. Tous les codes et tableaux d'évaluation sont disponibles à l'adresse https://github.com/AllanK24/QRID.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.