ChatPaper.aiChatPaper

WorldCache: Acelerando Modelos de Mundo Gratuitamente via Cache Heterogêneo de Tokens

WorldCache: Accelerating World Models for Free via Heterogeneous Token Caching

March 6, 2026
Autores: Weilun Feng, Guoxin Fan, Haotong Qin, Chuanguang Yang, Mingqiang Wu, Yuqi Li, Xiangqi Li, Zhulin An, Libo Huang, Dingrui Wang, Longlong Liao, Michele Magno, Yongjun Xu
cs.AI

Resumo

Os modelos de mundo baseados em difusão têm demonstrado grande potencial para simulação unificada do mundo, mas a eliminação iterativa de ruído permanece demasiado dispendiosa para uso interativo e simulações de longo horizonte. Embora o cache de características possa acelerar a inferência sem treinamento, descobrimos que políticas concebidas para difusão unimodal transferem-se mal para modelos de mundo devido a dois obstáculos específicos: a heterogeneidade de tokens resultante do acoplamento multimodal e da variação espacial, e a dinâmica temporal não uniforme, na qual um pequeno conjunto de tokens difíceis impulsiona o crescimento do erro, tornando a omissão uniforme instável ou excessivamente conservadora. Propomos o WorldCache, uma estrutura de cache adaptada a modelos de mundo de difusão. Introduzimos a Previsão Heterogénea de Tokens Guiada por Curvatura, que utiliza uma pontuação de curvatura baseada em física para estimar a previsibilidade dos tokens e aplica um preditor amortecido guiado por Hermite para tokens caóticos com mudanças abruptas de direção. Também concebemos a Omissão Adaptativa com Prioridade Caótica, que acumula um sinal de desvio adimensional e normalizado por curvatura e recalcula apenas quando os tokens de estrangulamento começam a desviar-se. Experiências em modelos de mundo de difusão mostram que o WorldCache oferece acelerações de até 3,7 vezes de ponta a ponta, mantendo 98% da qualidade da simulação, demonstrando as vastas vantagens e a praticidade do WorldCache em cenários com recursos limitados. O nosso código está disponível em https://github.com/FofGofx/WorldCache.
English
Diffusion-based world models have shown strong potential for unified world simulation, but the iterative denoising remains too costly for interactive use and long-horizon rollouts. While feature caching can accelerate inference without training, we find that policies designed for single-modal diffusion transfer poorly to world models due to two world-model-specific obstacles: token heterogeneity from multi-modal coupling and spatial variation, and non-uniform temporal dynamics where a small set of hard tokens drives error growth, making uniform skipping either unstable or overly conservative. We propose WorldCache, a caching framework tailored to diffusion world models. We introduce Curvature-guided Heterogeneous Token Prediction, which uses a physics-grounded curvature score to estimate token predictability and applies a Hermite-guided damped predictor for chaotic tokens with abrupt direction changes. We also design Chaotic-prioritized Adaptive Skipping, which accumulates a curvature-normalized, dimensionless drift signal and recomputes only when bottleneck tokens begin to drift. Experiments on diffusion world models show that WorldCache delivers up to 3.7times end-to-end speedups while maintaining 98\% rollout quality, demonstrating the vast advantages and practicality of WorldCache in resource-constrained scenarios. Our code is released in https://github.com/FofGofx/WorldCache.
PDF22March 10, 2026