Apprentissage de Transformers Visuels Robustes à l'Occlusion pour le Suivi en Temps Réel de Drones
Learning Occlusion-Robust Vision Transformers for Real-Time UAV Tracking
April 12, 2025
Auteurs: You Wu, Xucheng Wang, Xiangyang Yang, Mengyuan Liu, Dan Zeng, Hengzhou Ye, Shuiwang Li
cs.AI
Résumé
Les architectures à flux unique utilisant des backbones Vision Transformer (ViT) montrent un grand potentiel pour le suivi en temps réel de drones (UAV) récemment. Cependant, les occlusions fréquentes causées par des obstacles tels que des bâtiments et des arbres révèlent un inconvénient majeur : ces modèles manquent souvent de stratégies pour gérer efficacement les occlusions. De nouvelles méthodes sont nécessaires pour améliorer la résilience aux occlusions des modèles ViT à flux unique dans le suivi aérien. Dans ce travail, nous proposons d'apprendre des Représentations Robustes aux Occlusions (ORR) basées sur les ViT pour le suivi de drones en imposant une invariance de la représentation des caractéristiques d'une cible par rapport à des opérations de masquage aléatoire modélisées par un processus spatial de Cox. Nous espérons que ce masquage aléatoire simule approximativement les occlusions de cible, nous permettant ainsi d'apprendre des ViT robustes aux occlusions pour le suivi de drones. Ce cadre est appelé ORTrack. De plus, pour faciliter les applications en temps réel, nous proposons une méthode de Distillation de Connaissance Basée sur des Caractéristiques Adaptatives (AFKD) pour créer un tracker plus compact, qui imite de manière adaptative le comportement du modèle enseignant ORTrack en fonction de la difficulté de la tâche. Ce modèle étudiant, nommé ORTrack-D, conserve une grande partie des performances d'ORTrack tout en offrant une efficacité accrue. Des expériences approfondies sur plusieurs benchmarks valident l'efficacité de notre méthode, démontrant ses performances de pointe. Les codes sont disponibles à l'adresse https://github.com/wuyou3474/ORTrack.
English
Single-stream architectures using Vision Transformer (ViT) backbones show
great potential for real-time UAV tracking recently. However, frequent
occlusions from obstacles like buildings and trees expose a major drawback:
these models often lack strategies to handle occlusions effectively. New
methods are needed to enhance the occlusion resilience of single-stream ViT
models in aerial tracking. In this work, we propose to learn Occlusion-Robust
Representations (ORR) based on ViTs for UAV tracking by enforcing an invariance
of the feature representation of a target with respect to random masking
operations modeled by a spatial Cox process. Hopefully, this random masking
approximately simulates target occlusions, thereby enabling us to learn ViTs
that are robust to target occlusion for UAV tracking. This framework is termed
ORTrack. Additionally, to facilitate real-time applications, we propose an
Adaptive Feature-Based Knowledge Distillation (AFKD) method to create a more
compact tracker, which adaptively mimics the behavior of the teacher model
ORTrack according to the task's difficulty. This student model, dubbed
ORTrack-D, retains much of ORTrack's performance while offering higher
efficiency. Extensive experiments on multiple benchmarks validate the
effectiveness of our method, demonstrating its state-of-the-art performance.
Codes is available at https://github.com/wuyou3474/ORTrack.Summary
AI-Generated Summary