Exploración de la Planificación Visual en Modelos de Edición de Imágenes
Probing Visual Planning in Image Editing Models
April 23, 2026
Autores: Zhimu Zhou, Yanpeng Zhao, Qiuyu Liao, Bo Zhao, Xiaojian Ma
cs.AI
Resumen
La planificación visual representa un aspecto crucial de la inteligencia humana, especialmente en tareas que requieren razonamiento espacial complejo y navegación. Sin embargo, en el aprendizaje automático, este problema inherentemente visual a menudo se aborda desde una perspectiva centrada en lo verbal. Si bien investigaciones recientes demuestran la promesa de los enfoques completamente visuales, estos adolecen de una importante ineficiencia computacional debido al paradigma de planificación-paso-a-paso-mediante-generación. En este trabajo, presentamos EAR, un paradigma de edición-como-razonamiento que reformula la planificación visual como una transformación de imagen en un solo paso. Para aislar el razonamiento intrínseco del reconocimiento visual, empleamos rompecabezas abstractos como tareas de sondeo e introducimos AMAZE, un conjunto de datos generado proceduralmente que incluye los problemas clásicos del Laberinto y de la Reina, cubriendo formas distintas y complementarias de planificación visual. La naturaleza abstracta de AMAZE también facilita la evaluación automática de modelos autoregresivos y basados en difusión, tanto en términos de fidelidad a nivel de píxel como de validez lógica. Evaluamos modelos de edición líderes, tanto propietarios como de código abierto. Los resultados muestran que todos ellos tienen dificultades en un entorno de cero disparos, pero que el ajuste fino en escalas básicas permite una generalización notable a escalas de dominio interno más grandes y a escalas y geometrías de dominio externo. Sin embargo, nuestro mejor modelo, que se ejecuta en hardware de gama alta, no logra igualar la eficiencia de cero disparos de los solucionadores humanos, lo que subraya una brecha persistente en el razonamiento visual neuronal.
English
Visual planning represents a crucial facet of human intelligence, especially in tasks that require complex spatial reasoning and navigation. Yet, in machine learning, this inherently visual problem is often tackled through a verbal-centric lens. While recent research demonstrates the promise of fully visual approaches, they suffer from significant computational inefficiency due to the step-by-step planning-by-generation paradigm. In this work, we present EAR, an editing-as-reasoning paradigm that reformulates visual planning as a single-step image transformation. To isolate intrinsic reasoning from visual recognition, we employ abstract puzzles as probing tasks and introduce AMAZE, a procedurally generated dataset that features the classical Maze and Queen problems, covering distinct, complementary forms of visual planning. The abstract nature of AMAZE also facilitates automatic evaluation of autoregressive and diffusion-based models in terms of both pixel-wise fidelity and logical validity. We assess leading proprietary and open-source editing models. The results show that they all struggle in the zero-shot setting, finetuning on basic scales enables remarkable generalization to larger in-domain scales and out-of-domain scales and geometries. However, our best model that runs on high-end hardware fails to match the zero-shot efficiency of human solvers, highlighting a persistent gap in neural visual reasoning.