Uma Visão Mecanicista da Geração de Vídeo como Modelos do Mundo: Estado e Dinâmica
A Mechanistic View on Video Generation as World Models: State and Dynamics
January 22, 2026
Autores: Luozhou Wang, Zhifei Chen, Yihua Du, Dongyu Yan, Wenhang Ge, Guibao Shen, Xinli Xu, Leyi Wu, Man Chen, Tianshuo Xu, Peiran Ren, Xin Tao, Pengfei Wan, Ying-Cong Chen
cs.AI
Resumo
Modelos de geração de vídeo em larga escala demonstraram coerência física emergente, posicionando-os como potenciais modelos de mundo. No entanto, persiste uma lacuna entre as arquiteturas de vídeo "sem estado" contemporâneas e as teorias clássicas de modelos de mundo centradas em estado. Este trabalho preenche essa lacuna propondo uma nova taxonomia centrada em dois pilares: Construção de Estado e Modelagem de Dinâmicas. Categorizamos a construção de estado em paradigmas implícitos (gerenciamento de contexto) e explícitos (compressão latente), enquanto a modelagem de dinâmicas é analisada por meio da integração de conhecimento e da reformulação arquitetônica. Além disso, defendemos uma transição na avaliação da fidelidade visual para *benchmarks* funcionais, testando a persistência física e o raciocínio causal. Concluímos identificando duas fronteiras críticas: aprimorar a persistência por meio de memória orientada a dados e fidelidade compactada, e avançar a causalidade por meio do desacoplamento de fatores latentes e da integração de *priors* de raciocínio. Ao enfrentar esses desafios, a área pode evoluir da geração de vídeos visualmente plausíveis para a construção de simuladores de mundo robustos e de propósito geral.
English
Large-scale video generation models have demonstrated emergent physical coherence, positioning them as potential world models. However, a gap remains between contemporary "stateless" video architectures and classic state-centric world model theories. This work bridges this gap by proposing a novel taxonomy centered on two pillars: State Construction and Dynamics Modeling. We categorize state construction into implicit paradigms (context management) and explicit paradigms (latent compression), while dynamics modeling is analyzed through knowledge integration and architectural reformulation. Furthermore, we advocate for a transition in evaluation from visual fidelity to functional benchmarks, testing physical persistence and causal reasoning. We conclude by identifying two critical frontiers: enhancing persistence via data-driven memory and compressed fidelity, and advancing causality through latent factor decoupling and reasoning-prior integration. By addressing these challenges, the field can evolve from generating visually plausible videos to building robust, general-purpose world simulators.