ChatPaper.aiChatPaper

Planificación en 8 Tokens: Un Tokenizador Discreto Compacto para Modelos Mundiales Latentes

Planning in 8 Tokens: A Compact Discrete Tokenizer for Latent World Model

March 5, 2026
Autores: Dongwon Kim, Gawon Seo, Jinsung Lee, Minsu Cho, Suha Kwak
cs.AI

Resumen

Los modelos del mundo proporcionan un marco poderoso para simular la dinámica del entorno condicionada por acciones o instrucciones, permitiendo tareas posteriores como la planificación de acciones o el aprendizaje de políticas. Los enfoques recientes aprovechan los modelos del mundo como simuladores aprendidos, pero su aplicación a la planificación en tiempo de decisión sigue siendo computacionalmente prohibitiva para el control en tiempo real. Un cuello de botella clave reside en las representaciones latentes: los tokenizadores convencionales codifican cada observación en cientos de tokens, haciendo que la planificación sea lenta e intensiva en recursos. Para abordar esto, proponemos CompACT, un tokenizador discreto que comprime cada observación en tan solo 8 tokens, reduciendo drásticamente el coste computacional mientras preserva la información esencial para la planificación. Un modelo del mundo condicionado por acciones que utiliza el tokenizador CompACT logra un rendimiento de planificación competitivo con una velocidad de planificación órdenes de magnitud mayor, ofreciendo un paso práctico hacia la implementación en el mundo real de los modelos del mundo.
English
World models provide a powerful framework for simulating environment dynamics conditioned on actions or instructions, enabling downstream tasks such as action planning or policy learning. Recent approaches leverage world models as learned simulators, but its application to decision-time planning remains computationally prohibitive for real-time control. A key bottleneck lies in latent representations: conventional tokenizers encode each observation into hundreds of tokens, making planning both slow and resource-intensive. To address this, we propose CompACT, a discrete tokenizer that compresses each observation into as few as 8 tokens, drastically reducing computational cost while preserving essential information for planning. An action-conditioned world model that occupies CompACT tokenizer achieves competitive planning performance with orders-of-magnitude faster planning, offering a practical step toward real-world deployment of world models.
PDF404May 8, 2026