Entraînement avec prise en compte de la quantification spécifique à la tâche en mode zéro-shot pour la détection d'objets
Task-Specific Zero-shot Quantization-Aware Training for Object Detection
July 22, 2025
papers.authors: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI
papers.abstract
La quantification est une technique clé pour réduire la taille des réseaux et leur complexité computationnelle en représentant les paramètres du réseau avec une précision inférieure. Les méthodes de quantification traditionnelles reposent sur l'accès aux données d'entraînement originales, qui sont souvent restreintes en raison de préoccupations liées à la confidentialité ou à des défis de sécurité. La Quantification Zero-Shot (ZSQ) aborde ce problème en utilisant des données synthétiques générées à partir de modèles pré-entraînés, éliminant ainsi le besoin de données d'entraînement réelles. Récemment, la ZSQ a été étendue à la détection d'objets. Cependant, les méthodes existantes utilisent des images synthétiques non étiquetées et indépendantes de la tâche, qui manquent des informations spécifiques nécessaires à la détection d'objets, ce qui entraîne des performances sous-optimales. Dans cet article, nous proposons un nouveau cadre ZSQ spécifique à la tâche pour les réseaux de détection d'objets, qui se compose de deux étapes principales. Premièrement, nous introduisons une stratégie d'échantillonnage de boîtes englobantes et de catégories pour synthétiser un ensemble de calibration spécifique à la tâche à partir du réseau pré-entraîné, reconstruisant ainsi les emplacements, les tailles et les distributions de catégories des objets sans aucune connaissance préalable. Deuxièmement, nous intégrons un entraînement spécifique à la tâche dans le processus de distillation de connaissances pour restaurer les performances des réseaux de détection quantifiés. Des expériences approfondies menées sur les ensembles de données MS-COCO et Pascal VOC démontrent l'efficacité et les performances de pointe de notre méthode. Notre code est disponible publiquement à l'adresse suivante : https://github.com/DFQ-Dojo/dfq-toolkit.
English
Quantization is a key technique to reduce network size and computational
complexity by representing the network parameters with a lower precision.
Traditional quantization methods rely on access to original training data,
which is often restricted due to privacy concerns or security challenges.
Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated
from pre-trained models, eliminating the need for real training data. Recently,
ZSQ has been extended to object detection. However, existing methods use
unlabeled task-agnostic synthetic images that lack the specific information
required for object detection, leading to suboptimal performance. In this
paper, we propose a novel task-specific ZSQ framework for object detection
networks, which consists of two main stages. First, we introduce a bounding box
and category sampling strategy to synthesize a task-specific calibration set
from the pre-trained network, reconstructing object locations, sizes, and
category distributions without any prior knowledge. Second, we integrate
task-specific training into the knowledge distillation process to restore the
performance of quantized detection networks. Extensive experiments conducted on
the MS-COCO and Pascal VOC datasets demonstrate the efficiency and
state-of-the-art performance of our method. Our code is publicly available at:
https://github.com/DFQ-Dojo/dfq-toolkit .