ChatPaper.aiChatPaper

FluidWorld: Reactie-Diffusie Dynamica als een Voorspellend Substraat voor Wereldmodellen

FluidWorld: Reaction-Diffusion Dynamics as a Predictive Substrate for World Models

March 22, 2026
Auteurs: Fabien Polly
cs.AI

Samenvatting

Wereldmodellen leren toekomstige toestanden van een omgeving te voorspellen, wat planning en mentale simulatie mogelijk maakt. Huidige benaderingen gebruiken standaard Transformer-gebaseerde voorspellers die opereren in aangeleerde latente ruimtes. Dit heeft een prijskaartje: O(N²)-berekeningen en geen expliciete ruimtelijke inductieve bias. Dit artikel stelt een fundamentele vraag: is zelf-attentie noodzakelijk voor voorspellende wereldmodellering, of kunnen alternatieve computationele substraten vergelijkbare of superieure resultaten bereiken? Ik introduceer FluidWorld, een proof-of-concept wereldmodel waarvan de voorspellende dynamica wordt bepaald door partiële differentiaalvergelijkingen (PDE's) van het reactie-diffusie type. In plaats van een aparte neurale netwerkvoorspeller te gebruiken, produceert de PDE-integratie zelf de voorspelling van de toekomstige toestand. In een strikt parameter-gelijkwaardige drievoudige ablatiestudie voor onvoorwaardelijke UCF-101 videovoorspelling (64x64, ~800K parameters, identieke encoder, decoder, lossfuncties en data), wordt FluidWorld vergeleken met zowel een Transformer-basislijn (zelf-attentie) als een ConvLSTM-basislijn (convolutie-recurrentie). Hoewel alle drie de modellen convergeren naar een vergelijkbare verlieswaarde voor één-staps voorspelling, behaalt FluidWorld een 2x lagere reconstructiefout, produceert het representaties met 10-15% hogere preservatie van ruimtelijke structuur en 18-25% effectievere dimensionaliteit, en – cruciaal – handhaaft het coherente multi-stap simulaties waar beide basislijnen snel degraderen. Alle experimenten werden uitgevoerd op een enkele consumenten-pc (Intel Core i5, NVIDIA RTX 4070 Ti), zonder enige grootschalige rekenkracht. Deze resultaten tonen aan dat PDE-gebaseerde dynamica, die van nature O(N) ruimtelijke complexiteit, adaptieve berekening en globale ruimtelijke coherentie via diffusie bieden, een levensvatbaar en parameter-efficiënt alternatief zijn voor zowel attentie als convolutionele recurrentie voor wereldmodellering.
English
World models learn to predict future states of an environment, enabling planning and mental simulation. Current approaches default to Transformer-based predictors operating in learned latent spaces. This comes at a cost: O(N^2) computation and no explicit spatial inductive bias. This paper asks a foundational question: is self-attention necessary for predictive world modeling, or can alternative computational substrates achieve comparable or superior results? I introduce FluidWorld, a proof-of-concept world model whose predictive dynamics are governed by partial differential equations (PDEs) of reaction-diffusion type. Instead of using a separate neural network predictor, the PDE integration itself produces the future state prediction. In a strictly parameter-matched three-way ablation on unconditional UCF-101 video prediction (64x64, ~800K parameters, identical encoder, decoder, losses, and data), FluidWorld is compared against both a Transformer baseline (self-attention) and a ConvLSTM baseline (convolutional recurrence). While all three models converge to comparable single-step prediction loss, FluidWorld achieves 2x lower reconstruction error, produces representations with 10-15% higher spatial structure preservation and 18-25% more effective dimensionality, and critically maintains coherent multi-step rollouts where both baselines degrade rapidly. All experiments were conducted on a single consumer-grade PC (Intel Core i5, NVIDIA RTX 4070 Ti), without any large-scale compute. These results establish that PDE-based dynamics, which natively provide O(N) spatial complexity, adaptive computation, and global spatial coherence through diffusion, are a viable and parameter-efficient alternative to both attention and convolutional recurrence for world modeling.
PDF12March 25, 2026