Robustez da Quantização a Degradações de Entrada para Detecção de Objetos
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
Autores: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
Resumo
A quantização pós-treinamento (PTQ) é crucial para a implantação de modelos eficientes de detecção de objetos, como o YOLO, em dispositivos com recursos limitados. No entanto, o impacto da redução de precisão na robustez do modelo a degradações de entrada do mundo real, como ruído, desfoque e artefatos de compressão, é uma preocupação significativa. Este artigo apresenta um estudo empírico abrangente avaliando a robustez dos modelos YOLO (de nano a escalas extra-grandes) em múltiplos formatos de precisão: FP32, FP16 (TensorRT), UINT8 Dinâmico (ONNX) e INT8 Estático (TensorRT). Introduzimos e avaliamos uma estratégia de calibração consciente da degradação para PTQ INT8 Estático, onde o processo de calibração do TensorRT é exposto a uma mistura de imagens limpas e degradadas sinteticamente. Os modelos foram avaliados no conjunto de dados COCO sob sete condições distintas de degradação (incluindo vários tipos e níveis de ruído, desfoque, baixo contraste e compressão JPEG) e um cenário de degradação mista. Os resultados indicam que, embora os motores INT8 Estático do TensorRT ofereçam acelerações substanciais (~1,5-3,3x) com uma queda moderada de precisão (~3-7% mAP50-95) em dados limpos, a calibração consciente da degradação proposta não produziu melhorias consistentes e amplas na robustez em relação à calibração padrão com dados limpos na maioria dos modelos e degradações. Uma exceção notável foi observada para escalas maiores de modelos sob condições específicas de ruído, sugerindo que a capacidade do modelo pode influenciar a eficácia dessa abordagem de calibração. Esses achados destacam os desafios em melhorar a robustez da PTQ e fornecem insights para a implantação de detectores quantizados em ambientes não controlados. Todo o código e tabelas de avaliação estão disponíveis em https://github.com/AllanK24/QRID.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.