ChatPaper.aiChatPaper

Het ontwikkelen van occlusion-robuste Vision Transformers voor real-time UAV-tracking

Learning Occlusion-Robust Vision Transformers for Real-Time UAV Tracking

April 12, 2025
Auteurs: You Wu, Xucheng Wang, Xiangyang Yang, Mengyuan Liu, Dan Zeng, Hengzhou Ye, Shuiwang Li
cs.AI

Samenvatting

Single-stream architecturen die gebruikmaken van Vision Transformer (ViT)-backbones tonen recentelijk veel potentieel voor real-time UAV-tracking. Echter, frequente occlusies door obstakels zoals gebouwen en bomen leggen een groot nadeel bloot: deze modellen missen vaak strategieën om occlusies effectief te hanteren. Nieuwe methoden zijn nodig om de occlusiebestendigheid van single-stream ViT-modellen in luchtvaarttracking te verbeteren. In dit werk stellen we voor om Occlusion-Robust Representations (ORR) te leren op basis van ViTs voor UAV-tracking door een invariantie van de kenmerkrepresentatie van een doelwit af te dwingen ten opzichte van willekeurige maskeringsoperaties gemodelleerd door een ruimtelijk Cox-proces. Hopelijk simuleert deze willekeurige maskering doelwitocclusies bij benadering, waardoor we ViTs kunnen leren die robuust zijn tegen doelwitocclusies voor UAV-tracking. Dit framework wordt ORTrack genoemd. Daarnaast stellen we, om real-time toepassingen te faciliteren, een Adaptive Feature-Based Knowledge Distillation (AFKD)-methode voor om een compactere tracker te creëren, die het gedrag van het leraarmodel ORTrack adaptief nabootst volgens de moeilijkheidsgraad van de taak. Dit studentenmodel, genaamd ORTrack-D, behoudt veel van de prestaties van ORTrack terwijl het hogere efficiëntie biedt. Uitgebreide experimenten op meerdere benchmarks valideren de effectiviteit van onze methode, waarbij state-of-the-art prestaties worden gedemonstreerd. De code is beschikbaar op https://github.com/wuyou3474/ORTrack.
English
Single-stream architectures using Vision Transformer (ViT) backbones show great potential for real-time UAV tracking recently. However, frequent occlusions from obstacles like buildings and trees expose a major drawback: these models often lack strategies to handle occlusions effectively. New methods are needed to enhance the occlusion resilience of single-stream ViT models in aerial tracking. In this work, we propose to learn Occlusion-Robust Representations (ORR) based on ViTs for UAV tracking by enforcing an invariance of the feature representation of a target with respect to random masking operations modeled by a spatial Cox process. Hopefully, this random masking approximately simulates target occlusions, thereby enabling us to learn ViTs that are robust to target occlusion for UAV tracking. This framework is termed ORTrack. Additionally, to facilitate real-time applications, we propose an Adaptive Feature-Based Knowledge Distillation (AFKD) method to create a more compact tracker, which adaptively mimics the behavior of the teacher model ORTrack according to the task's difficulty. This student model, dubbed ORTrack-D, retains much of ORTrack's performance while offering higher efficiency. Extensive experiments on multiple benchmarks validate the effectiveness of our method, demonstrating its state-of-the-art performance. Codes is available at https://github.com/wuyou3474/ORTrack.

Summary

AI-Generated Summary

PDF42April 19, 2025