ChatPaper.aiChatPaper

Apprendimento di Vision Transformers Robusti all'Occlusione per il Tracciamento in Tempo Reale con UAV

Learning Occlusion-Robust Vision Transformers for Real-Time UAV Tracking

April 12, 2025
Autori: You Wu, Xucheng Wang, Xiangyang Yang, Mengyuan Liu, Dan Zeng, Hengzhou Ye, Shuiwang Li
cs.AI

Abstract

Le architetture single-stream che utilizzano backbone Vision Transformer (ViT) mostrano un grande potenziale per il tracciamento in tempo reale di UAV di recente. Tuttavia, le frequenti occlusioni causate da ostacoli come edifici e alberi rivelano un importante svantaggio: questi modelli spesso mancano di strategie per gestire efficacemente le occlusioni. Sono necessari nuovi metodi per migliorare la resilienza alle occlusioni dei modelli single-stream ViT nel tracciamento aereo. In questo lavoro, proponiamo di apprendere Rappresentazioni Robuste alle Occlusioni (ORR) basate su ViT per il tracciamento di UAV, imponendo un'invarianza della rappresentazione delle caratteristiche di un target rispetto a operazioni di mascheramento casuale modellate da un processo spaziale di Cox. Si spera che questo mascheramento casuale simuli approssimativamente le occlusioni del target, consentendoci così di apprendere ViT robuste alle occlusioni del target per il tracciamento di UAV. Questo framework è denominato ORTrack. Inoltre, per facilitare applicazioni in tempo reale, proponiamo un metodo di Distillazione della Conoscenza Basata su Caratteristiche Adattive (AFKD) per creare un tracker più compatto, che imita in modo adattivo il comportamento del modello insegnante ORTrack in base alla difficoltà del compito. Questo modello studente, denominato ORTrack-D, conserva gran parte delle prestazioni di ORTrack offrendo una maggiore efficienza. Esperimenti estesi su più benchmark convalidano l'efficacia del nostro metodo, dimostrando prestazioni all'avanguardia. Il codice è disponibile all'indirizzo https://github.com/wuyou3474/ORTrack.
English
Single-stream architectures using Vision Transformer (ViT) backbones show great potential for real-time UAV tracking recently. However, frequent occlusions from obstacles like buildings and trees expose a major drawback: these models often lack strategies to handle occlusions effectively. New methods are needed to enhance the occlusion resilience of single-stream ViT models in aerial tracking. In this work, we propose to learn Occlusion-Robust Representations (ORR) based on ViTs for UAV tracking by enforcing an invariance of the feature representation of a target with respect to random masking operations modeled by a spatial Cox process. Hopefully, this random masking approximately simulates target occlusions, thereby enabling us to learn ViTs that are robust to target occlusion for UAV tracking. This framework is termed ORTrack. Additionally, to facilitate real-time applications, we propose an Adaptive Feature-Based Knowledge Distillation (AFKD) method to create a more compact tracker, which adaptively mimics the behavior of the teacher model ORTrack according to the task's difficulty. This student model, dubbed ORTrack-D, retains much of ORTrack's performance while offering higher efficiency. Extensive experiments on multiple benchmarks validate the effectiveness of our method, demonstrating its state-of-the-art performance. Codes is available at https://github.com/wuyou3474/ORTrack.

Summary

AI-Generated Summary

PDF42April 19, 2025