ChatPaper.aiChatPaper

タスク特化型ゼロショット量子化対応トレーニングによる物体検出

Task-Specific Zero-shot Quantization-Aware Training for Object Detection

July 22, 2025
著者: Changhao Li, Xinrui Chen, Ji Wang, Kang Zhao, Jianfei Chen
cs.AI

要旨

量子化は、ネットワークパラメータを低精度で表現することにより、ネットワークサイズと計算複雑性を削減するための重要な技術である。従来の量子化手法は、プライバシーやセキュリティ上の懸念から制限されることが多い、元の訓練データへのアクセスに依存している。ゼロショット量子化(ZSQ)は、事前訓練済みモデルから生成された合成データを使用することで、実際の訓練データを必要としない点でこの問題に対処する。最近、ZSQは物体検出に拡張された。しかし、既存の手法では、物体検出に必要な特定の情報を欠いたラベルなしのタスク非依存の合成画像を使用しており、最適な性能が得られていない。本論文では、物体検出ネットワーク向けの新しいタスク特化型ZSQフレームワークを提案する。このフレームワークは、主に2つの段階から構成される。まず、事前訓練済みネットワークからタスク特化のキャリブレーションセットを合成するために、バウンディングボックスとカテゴリサンプリング戦略を導入し、物体の位置、サイズ、カテゴリ分布を事前知識なしで再構築する。次に、量子化された検出ネットワークの性能を回復するために、タスク特化の訓練を知識蒸留プロセスに統合する。MS-COCOおよびPascal VOCデータセットで実施した広範な実験により、本手法の効率性と最先端の性能が実証された。本手法のコードは、https://github.com/DFQ-Dojo/dfq-toolkit で公開されている。
English
Quantization is a key technique to reduce network size and computational complexity by representing the network parameters with a lower precision. Traditional quantization methods rely on access to original training data, which is often restricted due to privacy concerns or security challenges. Zero-shot Quantization (ZSQ) addresses this by using synthetic data generated from pre-trained models, eliminating the need for real training data. Recently, ZSQ has been extended to object detection. However, existing methods use unlabeled task-agnostic synthetic images that lack the specific information required for object detection, leading to suboptimal performance. In this paper, we propose a novel task-specific ZSQ framework for object detection networks, which consists of two main stages. First, we introduce a bounding box and category sampling strategy to synthesize a task-specific calibration set from the pre-trained network, reconstructing object locations, sizes, and category distributions without any prior knowledge. Second, we integrate task-specific training into the knowledge distillation process to restore the performance of quantized detection networks. Extensive experiments conducted on the MS-COCO and Pascal VOC datasets demonstrate the efficiency and state-of-the-art performance of our method. Our code is publicly available at: https://github.com/DFQ-Dojo/dfq-toolkit .
PDF91July 23, 2025