ChatPaper.aiChatPaper

TRACE: Temporele Verankering van Video's via Causaal Gebeurtenismodellering

TRACE: Temporal Grounding Video LLM via Causal Event Modeling

October 8, 2024
Auteurs: Yongxin Guo, Jingyu Liu, Mingda Li, Xiaoying Tang, Qingbin Liu, Xi Chen
cs.AI

Samenvatting

Video Temporal Grounding (VTG) is een cruciale capaciteit voor videomodellen voor begrip en speelt een vitale rol in downstream taken zoals video browsen en bewerken. Om verschillende taken effectief gelijktijdig aan te pakken en zero-shot voorspelling mogelijk te maken, is er een groeiende trend om videomodellen met taalmodellen op basis van video in te zetten voor VTG-taken. Echter, huidige videomodellen op basis van taalmodellen vertrouwen uitsluitend op natuurlijke taalgeneratie, wat hen het vermogen ontneemt om de duidelijke structuur die inherent is aan video's te modelleren, wat hun effectiviteit beperkt bij het aanpakken van VTG-taken. Om dit probleem aan te pakken, introduceert dit artikel eerst formeel een causaal gebeurtenismodel, dat video's voorstelt als sequenties van gebeurtenissen, en voorspelt de huidige gebeurtenis met behulp van eerdere gebeurtenissen, video-invoer en tekstuele instructies. Elke gebeurtenis bestaat uit drie componenten: tijdstempels, opvallende scores en tekstuele bijschriften. Vervolgens stellen we een nieuw taak-geïnterlinieerd videotaalmodel voor genaamd TRACE voor om het causale gebeurtenismodel in de praktijk effectief te implementeren. TRACE verwerkt visuele frames, tijdstempels, opvallende scores en tekst als afzonderlijke taken, waarbij verschillende encoders en decoderingskoppen voor elk worden gebruikt. Taaktokens worden gerangschikt in een geïnterlinieerde sequentie volgens de formulering van het causale gebeurtenismodel. Uitgebreide experimenten op verschillende VTG-taken en datasets tonen de superieure prestaties van TRACE aan in vergelijking met toonaangevende videomodellen op basis van taalmodellen. Ons model en code zijn beschikbaar op https://github.com/gyxxyg/TRACE.
English
Video Temporal Grounding (VTG) is a crucial capability for video understanding models and plays a vital role in downstream tasks such as video browsing and editing. To effectively handle various tasks simultaneously and enable zero-shot prediction, there is a growing trend in employing video LLMs for VTG tasks. However, current video LLM-based methods rely exclusively on natural language generation, lacking the ability to model the clear structure inherent in videos, which restricts their effectiveness in tackling VTG tasks. To address this issue, this paper first formally introduces causal event modeling framework, which represents videos as sequences of events, and predict the current event using previous events, video inputs, and textural instructions. Each event consists of three components: timestamps, salient scores, and textual captions. We then propose a novel task-interleaved video LLM called TRACE to effectively implement the causal event modeling framework in practice. The TRACE processes visual frames, timestamps, salient scores, and text as distinct tasks, employing various encoders and decoding heads for each. Task tokens are arranged in an interleaved sequence according to the causal event modeling framework's formulation. Extensive experiments on various VTG tasks and datasets demonstrate the superior performance of TRACE compared to state-of-the-art video LLMs. Our model and code are available at https://github.com/gyxxyg/TRACE.
PDF93November 16, 2024