Устойчивость квантования к деградации входных данных для задачи обнаружения объектов
Quantization Robustness to Input Degradations for Object Detection
August 27, 2025
Авторы: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI
Аннотация
Посттренировочная квантизация (PTQ) играет ключевую роль для развертывания эффективных моделей обнаружения объектов, таких как YOLO, на устройствах с ограниченными ресурсами. Однако влияние снижения точности на устойчивость моделей к реальным искажениям входных данных, таким как шум, размытие и артефакты сжатия, вызывает серьезные опасения. В данной статье представлено всестороннее эмпирическое исследование, оценивающее устойчивость моделей YOLO (от нано до сверхбольших масштабов) в различных форматах точности: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX) и Static INT8 (TensorRT). Мы предлагаем и оцениваем стратегию калибровки, учитывающую искажения, для Static INT8 PTQ, в которой процесс калибровки TensorRT подвергается воздействию смеси чистых и синтетически искаженных изображений. Модели тестировались на наборе данных COCO в семи различных условиях искажений (включая различные типы и уровни шума, размытия, низкой контрастности и JPEG-сжатия) и в сценарии смешанных искажений. Результаты показывают, что хотя движки Static INT8 TensorRT обеспечивают значительное ускорение (~1.5-3.3x) с умеренным снижением точности (~3-7% mAP50-95) на чистых данных, предложенная калибровка с учетом искажений не привела к последовательному и широкому улучшению устойчивости по сравнению со стандартной калибровкой на чистых данных для большинства моделей и искажений. Исключение было отмечено для моделей большего масштаба в условиях определенного шума, что позволяет предположить, что емкость модели может влиять на эффективность данного подхода к калибровке. Эти результаты подчеркивают сложности в повышении устойчивости PTQ и предоставляют ценные инсайты для развертывания квантизированных детекторов в неконтролируемых условиях. Весь код и таблицы с результатами доступны по адресу https://github.com/AllanK24/QRID.
English
Post-training quantization (PTQ) is crucial for deploying efficient object
detection models, like YOLO, on resource-constrained devices. However, the
impact of reduced precision on model robustness to real-world input
degradations such as noise, blur, and compression artifacts is a significant
concern. This paper presents a comprehensive empirical study evaluating the
robustness of YOLO models (nano to extra-large scales) across multiple
precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8
(TensorRT). We introduce and evaluate a degradation-aware calibration strategy
for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix
of clean and synthetically degraded images. Models were benchmarked on the COCO
dataset under seven distinct degradation conditions (including various types
and levels of noise, blur, low contrast, and JPEG compression) and a
mixed-degradation scenario. Results indicate that while Static INT8 TensorRT
engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop
(~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did
not yield consistent, broad improvements in robustness over standard clean-data
calibration across most models and degradations. A notable exception was
observed for larger model scales under specific noise conditions, suggesting
model capacity may influence the efficacy of this calibration approach. These
findings highlight the challenges in enhancing PTQ robustness and provide
insights for deploying quantized detectors in uncontrolled environments. All
code and evaluation tables are available at https://github.com/AllanK24/QRID.