Robustez de la Cuantización ante Degradaciones de Entrada para la Detección de Objetos
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
Autores: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
Resumen
La cuantización post-entrenamiento (PTQ, por sus siglas en inglés) es crucial para implementar modelos eficientes de detección de objetos, como YOLO, en dispositivos con recursos limitados. Sin embargo, el impacto de la reducción de precisión en la robustez del modelo frente a degradaciones del mundo real, como ruido, desenfoque y artefactos de compresión, es una preocupación significativa. Este artículo presenta un estudio empírico exhaustivo que evalúa la robustez de los modelos YOLO (desde la escala nano hasta extra grande) en múltiples formatos de precisión: FP32, FP16 (TensorRT), UINT8 dinámico (ONNX) e INT8 estático (TensorRT). Introducimos y evaluamos una estrategia de calibración consciente de la degradación para PTQ en INT8 estático, donde el proceso de calibración de TensorRT se expone a una mezcla de imágenes limpias y sintéticamente degradadas. Los modelos se evaluaron en el conjunto de datos COCO bajo siete condiciones de degradación distintas (incluyendo varios tipos y niveles de ruido, desenfoque, bajo contraste y compresión JPEG) y un escenario de degradación mixta. Los resultados indican que, aunque los motores INT8 estático de TensorRT ofrecen aceleraciones sustanciales (~1.5-3.3x) con una caída moderada en la precisión (~3-7% mAP50-95) en datos limpios, la calibración consciente de la degradación propuesta no produjo mejoras consistentes y generalizadas en la robustez en comparación con la calibración estándar en datos limpios en la mayoría de los modelos y degradaciones. Se observó una excepción notable en escalas de modelos más grandes bajo condiciones específicas de ruido, lo que sugiere que la capacidad del modelo puede influir en la eficacia de este enfoque de calibración. Estos hallazgos resaltan los desafíos de mejorar la robustez de la PTQ y brindan insights para implementar detectores cuantizados en entornos no controlados. Todo el código y las tablas de evaluación están disponibles en https://github.com/AllanK24/QRID.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.