Representaties voor Pixels: Semantiek-Gestuurde Hiërarchische Videovoorspelling
Representations Before Pixels: Semantics-Guided Hierarchical Video Prediction
April 13, 2026
Auteurs: Efstathios Karypidis, Spyros Gidaris, Nikos Komodakis
cs.AI
Samenvatting
Accurate toekomstige videovoorspelling vereist zowel een hoge visuele kwaliteit als consistente scènesemantiek, vooral in complexe dynamische omgevingen zoals autonoom rijden. Wij presenteren Re2Pix, een hiërarchisch videovoorspellingsraamwerk dat voorspelling ontleedt in twee fasen: voorspelling van semantische representaties en representatiegestuurde visuele synthese. In plaats van toekomstige RGB-frames direct te voorspellen, voorspelt onze aanpak eerst de toekomstige scènestructuur in de kenmerkruimte van een bevroren vision foundation-model, en conditioneert vervolgens een latent diffusi
English
Accurate future video prediction requires both high visual fidelity and consistent scene semantics, particularly in complex dynamic environments such as autonomous driving. We present Re2Pix, a hierarchical video prediction framework that decomposes forecasting into two stages: semantic representation prediction and representation-guided visual synthesis. Instead of directly predicting future RGB frames, our approach first forecasts future scene structure in the feature space of a frozen vision foundation model, and then conditions a latent diffusion model on these predicted representations to render photorealistic frames. This decomposition enables the model to focus first on scene dynamics and then on appearance generation. A key challenge arises from the train-test mismatch between ground-truth representations available during training and predicted ones used at inference. To address this, we introduce two conditioning strategies, nested dropout and mixed supervision, that improve robustness to imperfect autoregressive predictions. Experiments on challenging driving benchmarks demonstrate that the proposed semantics-first design significantly improves temporal semantic consistency, perceptual quality, and training efficiency compared to strong diffusion baselines. We provide the implementation code at https://github.com/Sta8is/Re2Pix