ChatPaper.aiChatPaper

객체 탐지를 위한 입력 열화에 대한 양자화 강건성

Quantization Robustness to Input Degradations for Object Detection

August 27, 2025
저자: Toghrul Karimov, Hassan Imani, Allan Kazakov
cs.AI

초록

훈련 후 양자화(PTQ)는 YOLO와 같은 객체 탐지 모델을 자원이 제한된 장치에 효율적으로 배포하는 데 필수적입니다. 그러나 낮은 정밀도가 노이즈, 블러, 압축 아티팩트와 같은 실제 입력 열화에 대한 모델의 견고성에 미치는 영향은 중요한 문제입니다. 본 논문은 FP32, FP16(TensorRT), Dynamic UINT8(ONNX), Static INT8(TensorRT) 등 다양한 정밀도 형식에서 YOLO 모델(nano부터 extra-large 크기까지)의 견고성을 평가한 포괄적인 실험 연구를 제시합니다. 또한, Static INT8 PTQ를 위한 열화 인지 보정 전략을 소개하고 평가합니다. 이 전략에서는 TensorRT 보정 과정에 깨끗한 이미지와 합성적으로 열화된 이미지를 혼합하여 노출시킵니다. 모델은 COCO 데이터셋에서 7가지의 서로 다른 열화 조건(다양한 유형과 수준의 노이즈, 블러, 낮은 대비, JPEG 압축 등)과 혼합 열화 시나리오 하에서 벤치마크되었습니다. 결과에 따르면, Static INT8 TensorRT 엔진은 깨끗한 데이터에서 상당한 속도 향상(~1.5-3.3배)과 중간 정도의 정확도 하락(~3-7% mAP50-95)을 제공하지만, 제안된 열화 인지 보정은 대부분의 모델과 열화 조건에서 표준 깨끗한 데이터 보정에 비해 일관적이고 광범위한 견고성 개선을 가져오지는 못했습니다. 특정 노이즈 조건에서 더 큰 모델 크기에 대해 주목할 만한 예외가 관찰되었으며, 이는 모델 용량이 이 보정 접근법의 효능에 영향을 미칠 수 있음을 시사합니다. 이러한 발견들은 PTQ 견고성을 향상시키는 데 있어서의 어려움을 강조하고, 제어되지 않은 환경에서 양자화된 탐지기를 배포하기 위한 통찰을 제공합니다. 모든 코드와 평가 테이블은 https://github.com/AllanK24/QRID에서 확인할 수 있습니다.
English
Post-training quantization (PTQ) is crucial for deploying efficient object detection models, like YOLO, on resource-constrained devices. However, the impact of reduced precision on model robustness to real-world input degradations such as noise, blur, and compression artifacts is a significant concern. This paper presents a comprehensive empirical study evaluating the robustness of YOLO models (nano to extra-large scales) across multiple precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8 (TensorRT). We introduce and evaluate a degradation-aware calibration strategy for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix of clean and synthetically degraded images. Models were benchmarked on the COCO dataset under seven distinct degradation conditions (including various types and levels of noise, blur, low contrast, and JPEG compression) and a mixed-degradation scenario. Results indicate that while Static INT8 TensorRT engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop (~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did not yield consistent, broad improvements in robustness over standard clean-data calibration across most models and degradations. A notable exception was observed for larger model scales under specific noise conditions, suggesting model capacity may influence the efficacy of this calibration approach. These findings highlight the challenges in enhancing PTQ robustness and provide insights for deploying quantized detectors in uncontrolled environments. All code and evaluation tables are available at https://github.com/AllanK24/QRID.
PDF02September 1, 2025