ChatPaper.aiChatPaper

Taakspecifieke Zero-shot Kwantisatiebewuste Training voor Objectdetectie

Task-Specific Zero-shot Quantization-Aware Training for Object Detection

July 22, 2025
Auteurs: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI

Samenvatting

Kwantisatie is een essentiële techniek om de netwerkgrootte en rekencomplexiteit te verminderen door de netwerkparameters met een lagere precisie weer te geven. Traditionele kwantisatiemethoden vereisen toegang tot de originele trainingsdata, wat vaak beperkt is vanwege privacyoverwegingen of beveiligingsuitdagingen. Zero-shot Kwantisatie (ZSQ) lost dit op door synthetische data te gebruiken die gegenereerd wordt uit vooraf getrainde modellen, waardoor de noodzaak voor echte trainingsdata wordt geëlimineerd. Recentelijk is ZSQ uitgebreid naar objectdetectie. Bestaande methoden gebruiken echter ongelabelde, taakongevoelige synthetische afbeeldingen die de specifieke informatie die nodig is voor objectdetectie missen, wat leidt tot suboptimale prestaties. In dit artikel stellen we een nieuw taakspecifiek ZSQ-framework voor objectdetectienetwerken voor, dat uit twee hoofdstadia bestaat. Ten eerste introduceren we een strategie voor het bemonsteren van begrenzingsvakken en categorieën om een taakspecifieke kalibratieset te synthetiseren uit het vooraf getrainde netwerk, waarbij objectlocaties, -groottes en categorieverdelingen worden gereconstrueerd zonder enige voorkennis. Ten tweede integreren we taakspecifieke training in het kennisdistillatieproces om de prestaties van gekwantiseerde detectienetwerken te herstellen. Uitgebreide experimenten uitgevoerd op de MS-COCO en Pascal VOC datasets demonstreren de efficiëntie en state-of-the-art prestaties van onze methode. Onze code is publiekelijk beschikbaar op: https://github.com/DFQ-Dojo/dfq-toolkit.
English
Quantization is a key technique to reduce network size and computational complexity by representing the network parameters with a lower precision. Traditional quantization methods rely on access to original training data, which is often restricted due to privacy concerns or security challenges. Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated from pre-trained models, eliminating the need for real training data. Recently, ZSQ has been extended to object detection. However, existing methods use unlabeled task-agnostic synthetic images that lack the specific information required for object detection, leading to suboptimal performance. In this paper, we propose a novel task-specific ZSQ framework for object detection networks, which consists of two main stages. First, we introduce a bounding box and category sampling strategy to synthesize a task-specific calibration set from the pre-trained network, reconstructing object locations, sizes, and category distributions without any prior knowledge. Second, we integrate task-specific training into the knowledge distillation process to restore the performance of quantized detection networks. Extensive experiments conducted on the MS-COCO and Pascal VOC datasets demonstrate the efficiency and state-of-the-art performance of our method. Our code is publicly available at: https://github.com/DFQ-Dojo/dfq-toolkit .
PDF91July 23, 2025