ChatPaper.aiChatPaper

CoTracker: Gemeinsames Tracking ist besser

CoTracker: It is Better to Track Together

July 14, 2023
Autoren: Nikita Karaev, Ignacio Rocco, Benjamin Graham, Natalia Neverova, Andrea Vedaldi, Christian Rupprecht
cs.AI

Zusammenfassung

Methoden zur Vorhersage von Videobewegungen schätzen entweder die momentane Bewegung aller Punkte in einem gegebenen Videobild gemeinsam mithilfe von optischem Fluss oder verfolgen die Bewegung einzelner Punkte unabhängig voneinander über das gesamte Video. Letzteres gilt sogar für leistungsstarke Deep-Learning-Methoden, die Punkte durch Verdeckungen hindurch verfolgen können. Das individuelle Verfolgen von Punkten ignoriert die starke Korrelation, die zwischen den Punkten bestehen kann, beispielsweise weil sie zum selben physischen Objekt gehören, was die Leistung potenziell beeinträchtigt. In diesem Artikel schlagen wir daher CoTracker vor, eine Architektur, die mehrere Punkte gemeinsam über ein gesamtes Video hinweg verfolgt. Diese Architektur kombiniert mehrere Ideen aus der Literatur zu optischem Fluss und Tracking in einem neuen, flexiblen und leistungsstarken Design. Sie basiert auf einem Transformer-Netzwerk, das die Korrelation verschiedener Punkte über spezialisierte Attention-Layer modelliert. Der Transformer aktualisiert iterativ eine Schätzung mehrerer Trajektorien. Er kann in einem gleitenden Fenster auf sehr lange Videos angewendet werden, für die wir eine entrollte Trainingsschleife entwickeln. Er kann von einem bis zu mehreren Punkten gemeinsam verfolgen und unterstützt das Hinzufügen neuer zu verfolgender Punkte zu jedem Zeitpunkt. Das Ergebnis ist ein flexibler und leistungsstarker Tracking-Algorithmus, der in fast allen Benchmarks state-of-the-art-Methoden übertrifft.
English
Methods for video motion prediction either estimate jointly the instantaneous motion of all points in a given video frame using optical flow or independently track the motion of individual points throughout the video. The latter is true even for powerful deep-learning methods that can track points through occlusions. Tracking points individually ignores the strong correlation that can exist between the points, for instance, because they belong to the same physical object, potentially harming performance. In this paper, we thus propose CoTracker, an architecture that jointly tracks multiple points throughout an entire video. This architecture combines several ideas from the optical flow and tracking literature in a new, flexible and powerful design. It is based on a transformer network that models the correlation of different points in time via specialised attention layers. The transformer iteratively updates an estimate of several trajectories. It can be applied in a sliding-window manner to very long videos, for which we engineer an unrolled training loop. It can track from one to several points jointly and supports adding new points to track at any time. The result is a flexible and powerful tracking algorithm that outperforms state-of-the-art methods in almost all benchmarks.
PDF180December 15, 2024