Taakspecifieke Zero-shot Kwantisatiebewuste Training voor Objectdetectie
Task-Specific Zero-shot Quantization-Aware Training for Object Detection
July 22, 2025
Auteurs: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI
Samenvatting
Kwantisatie is een essentiële techniek om de netwerkgrootte en rekencomplexiteit te verminderen door de netwerkparameters met een lagere precisie weer te geven. Traditionele kwantisatiemethoden vereisen toegang tot de originele trainingsdata, wat vaak beperkt is vanwege privacyoverwegingen of beveiligingsuitdagingen. Zero-shot Kwantisatie (ZSQ) lost dit op door synthetische data te gebruiken die gegenereerd wordt uit vooraf getrainde modellen, waardoor de noodzaak voor echte trainingsdata wordt geëlimineerd. Recentelijk is ZSQ uitgebreid naar objectdetectie. Bestaande methoden gebruiken echter ongelabelde, taakongevoelige synthetische afbeeldingen die de specifieke informatie die nodig is voor objectdetectie missen, wat leidt tot suboptimale prestaties. In dit artikel stellen we een nieuw taakspecifiek ZSQ-framework voor objectdetectienetwerken voor, dat uit twee hoofdstadia bestaat. Ten eerste introduceren we een strategie voor het bemonsteren van begrenzingsvakken en categorieën om een taakspecifieke kalibratieset te synthetiseren uit het vooraf getrainde netwerk, waarbij objectlocaties, -groottes en categorieverdelingen worden gereconstrueerd zonder enige voorkennis. Ten tweede integreren we taakspecifieke training in het kennisdistillatieproces om de prestaties van gekwantiseerde detectienetwerken te herstellen. Uitgebreide experimenten uitgevoerd op de MS-COCO en Pascal VOC datasets demonstreren de efficiëntie en state-of-the-art prestaties van onze methode. Onze code is publiekelijk beschikbaar op: https://github.com/DFQ-Dojo/dfq-toolkit.
English
Quantization is a key technique to reduce network size and computational
complexity by representing the network parameters with a lower precision.
Traditional quantization methods rely on access to original training data,
which is often restricted due to privacy concerns or security challenges.
Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated
from pre-trained models, eliminating the need for real training data. Recently,
ZSQ has been extended to object detection. However, existing methods use
unlabeled task-agnostic synthetic images that lack the specific information
required for object detection, leading to suboptimal performance. In this
paper, we propose a novel task-specific ZSQ framework for object detection
networks, which consists of two main stages. First, we introduce a bounding box
and category sampling strategy to synthesize a task-specific calibration set
from the pre-trained network, reconstructing object locations, sizes, and
category distributions without any prior knowledge. Second, we integrate
task-specific training into the knowledge distillation process to restore the
performance of quantized detection networks. Extensive experiments conducted on
the MS-COCO and Pascal VOC datasets demonstrate the efficiency and
state-of-the-art performance of our method. Our code is publicly available at:
https://github.com/DFQ-Dojo/dfq-toolkit .