Aufgabenbezogenes Zero-Shot Quantisierungsbewusstes Training für die Objekterkennung
Task-Specific Zero-shot Quantization-Aware Training for Object Detection
July 22, 2025
papers.authors: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI
papers.abstract
Quantisierung ist eine Schlüsseltechnik zur Reduzierung der Netzwerkgröße und der Rechenkomplexität, indem die Netzwerkparameter mit einer geringeren Präzision dargestellt werden. Traditionelle Quantisierungsmethoden setzen den Zugriff auf die ursprünglichen Trainingsdaten voraus, der häufig aufgrund von Datenschutzbedenken oder Sicherheitsanforderungen eingeschränkt ist. Zero-Shot-Quantisierung (ZSQ) adressiert dies, indem synthetische Daten verwendet werden, die aus vortrainierten Modellen generiert werden, wodurch der Bedarf an echten Trainingsdaten entfällt. Kürzlich wurde ZSQ auf die Objekterkennung ausgeweitet. Allerdings verwenden bestehende Methoden unmarkierte, aufgabenunabhängige synthetische Bilder, denen die spezifischen Informationen für die Objekterkennung fehlen, was zu suboptimalen Ergebnissen führt. In diesem Artikel schlagen wir ein neuartiges aufgabenspezifisches ZSQ-Framework für Objekterkennungsnetzwerke vor, das aus zwei Hauptphasen besteht. Zunächst führen wir eine Strategie zur Stichprobenziehung von Begrenzungsrahmen und Kategorien ein, um einen aufgabenspezifischen Kalibrierungssatz aus dem vortrainierten Netzwerk zu synthetisieren, wodurch Objektpositionen, -größen und Kategorieverteilungen ohne jegliches Vorwissen rekonstruiert werden. Zweitens integrieren wir aufgabenspezifisches Training in den Wissensdistillationsprozess, um die Leistung quantisierter Erkennungsnetzwerke wiederherzustellen. Umfangreiche Experimente, die auf den MS-COCO- und Pascal-VOC-Datensätzen durchgeführt wurden, demonstrieren die Effizienz und die state-of-the-art Leistung unserer Methode. Unser Code ist öffentlich verfügbar unter: https://github.com/DFQ-Dojo/dfq-toolkit.
English
Quantization is a key technique to reduce network size and computational
complexity by representing the network parameters with a lower precision.
Traditional quantization methods rely on access to original training data,
which is often restricted due to privacy concerns or security challenges.
Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated
from pre-trained models, eliminating the need for real training data. Recently,
ZSQ has been extended to object detection. However, existing methods use
unlabeled task-agnostic synthetic images that lack the specific information
required for object detection, leading to suboptimal performance. In this
paper, we propose a novel task-specific ZSQ framework for object detection
networks, which consists of two main stages. First, we introduce a bounding box
and category sampling strategy to synthesize a task-specific calibration set
from the pre-trained network, reconstructing object locations, sizes, and
category distributions without any prior knowledge. Second, we integrate
task-specific training into the knowledge distillation process to restore the
performance of quantized detection networks. Extensive experiments conducted on
the MS-COCO and Pascal VOC datasets demonstrate the efficiency and
state-of-the-art performance of our method. Our code is publicly available at:
https://github.com/DFQ-Dojo/dfq-toolkit .