ChatPaper.aiChatPaper

Entrenamiento Consciente de la Cuantización Específico para Tareas con Cero Disparos para la Detección de Objetos

Task-Specific Zero-shot Quantization-Aware Training for Object Detection

July 22, 2025
Autores: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI

Resumen

La cuantización es una técnica clave para reducir el tamaño de la red y la complejidad computacional al representar los parámetros de la red con una precisión inferior. Los métodos tradicionales de cuantización dependen del acceso a los datos de entrenamiento originales, lo cual a menudo está restringido debido a preocupaciones de privacidad o desafíos de seguridad. La Cuantización Cero-Shot (ZSQ, por sus siglas en inglés) aborda este problema utilizando datos sintéticos generados a partir de modelos preentrenados, eliminando la necesidad de datos de entrenamiento reales. Recientemente, la ZSQ se ha extendido a la detección de objetos. Sin embargo, los métodos existentes utilizan imágenes sintéticas no etiquetadas y agnósticas a la tarea, las cuales carecen de la información específica requerida para la detección de objetos, lo que resulta en un rendimiento subóptimo. En este artículo, proponemos un marco novedoso de ZSQ específico para la tarea de detección de objetos, que consta de dos etapas principales. Primero, introducimos una estrategia de muestreo de cajas delimitadoras y categorías para sintetizar un conjunto de calibración específico para la tarea a partir de la red preentrenada, reconstruyendo las ubicaciones, tamaños y distribuciones de categorías de los objetos sin ningún conocimiento previo. Segundo, integramos el entrenamiento específico para la tarea en el proceso de destilación de conocimiento para restaurar el rendimiento de las redes de detección cuantizadas. Experimentos exhaustivos realizados en los conjuntos de datos MS-COCO y Pascal VOC demuestran la eficiencia y el rendimiento de vanguardia de nuestro método. Nuestro código está disponible públicamente en: https://github.com/DFQ-Dojo/dfq-toolkit.
English
Quantization is a key technique to reduce network size and computational complexity by representing the network parameters with a lower precision. Traditional quantization methods rely on access to original training data, which is often restricted due to privacy concerns or security challenges. Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated from pre-trained models, eliminating the need for real training data. Recently, ZSQ has been extended to object detection. However, existing methods use unlabeled task-agnostic synthetic images that lack the specific information required for object detection, leading to suboptimal performance. In this paper, we propose a novel task-specific ZSQ framework for object detection networks, which consists of two main stages. First, we introduce a bounding box and category sampling strategy to synthesize a task-specific calibration set from the pre-trained network, reconstructing object locations, sizes, and category distributions without any prior knowledge. Second, we integrate task-specific training into the knowledge distillation process to restore the performance of quantized detection networks. Extensive experiments conducted on the MS-COCO and Pascal VOC datasets demonstrate the efficiency and state-of-the-art performance of our method. Our code is publicly available at: https://github.com/DFQ-Dojo/dfq-toolkit .
PDF91July 23, 2025