ChatPaper.aiChatPaper

Aufgabenbezogenes Zero-Shot Quantisierungsbewusstes Training für die Objekterkennung

Task-Specific Zero-shot Quantization-Aware Training for Object Detection

July 22, 2025
papers.authors: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI

papers.abstract

Quantisierung ist eine Schlüsseltechnik zur Reduzierung der Netzwerkgröße und der Rechenkomplexität, indem die Netzwerkparameter mit einer geringeren Präzision dargestellt werden. Traditionelle Quantisierungsmethoden setzen den Zugriff auf die ursprünglichen Trainingsdaten voraus, der häufig aufgrund von Datenschutzbedenken oder Sicherheitsanforderungen eingeschränkt ist. Zero-Shot-Quantisierung (ZSQ) adressiert dies, indem synthetische Daten verwendet werden, die aus vortrainierten Modellen generiert werden, wodurch der Bedarf an echten Trainingsdaten entfällt. Kürzlich wurde ZSQ auf die Objekterkennung ausgeweitet. Allerdings verwenden bestehende Methoden unmarkierte, aufgabenunabhängige synthetische Bilder, denen die spezifischen Informationen für die Objekterkennung fehlen, was zu suboptimalen Ergebnissen führt. In diesem Artikel schlagen wir ein neuartiges aufgabenspezifisches ZSQ-Framework für Objekterkennungsnetzwerke vor, das aus zwei Hauptphasen besteht. Zunächst führen wir eine Strategie zur Stichprobenziehung von Begrenzungsrahmen und Kategorien ein, um einen aufgabenspezifischen Kalibrierungssatz aus dem vortrainierten Netzwerk zu synthetisieren, wodurch Objektpositionen, -größen und Kategorieverteilungen ohne jegliches Vorwissen rekonstruiert werden. Zweitens integrieren wir aufgabenspezifisches Training in den Wissensdistillationsprozess, um die Leistung quantisierter Erkennungsnetzwerke wiederherzustellen. Umfangreiche Experimente, die auf den MS-COCO- und Pascal-VOC-Datensätzen durchgeführt wurden, demonstrieren die Effizienz und die state-of-the-art Leistung unserer Methode. Unser Code ist öffentlich verfügbar unter: https://github.com/DFQ-Dojo/dfq-toolkit.
English
Quantization is a key technique to reduce network size and computational complexity by representing the network parameters with a lower precision. Traditional quantization methods rely on access to original training data, which is often restricted due to privacy concerns or security challenges. Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated from pre-trained models, eliminating the need for real training data. Recently, ZSQ has been extended to object detection. However, existing methods use unlabeled task-agnostic synthetic images that lack the specific information required for object detection, leading to suboptimal performance. In this paper, we propose a novel task-specific ZSQ framework for object detection networks, which consists of two main stages. First, we introduce a bounding box and category sampling strategy to synthesize a task-specific calibration set from the pre-trained network, reconstructing object locations, sizes, and category distributions without any prior knowledge. Second, we integrate task-specific training into the knowledge distillation process to restore the performance of quantized detection networks. Extensive experiments conducted on the MS-COCO and Pascal VOC datasets demonstrate the efficiency and state-of-the-art performance of our method. Our code is publicly available at: https://github.com/DFQ-Dojo/dfq-toolkit .
PDF91July 23, 2025