ChatPaper.aiChatPaper

Latent Sketchpad: Skizzieren visueller Gedanken zur Aktivierung multimodaler Denkprozesse in MLLMs

Latent Sketchpad: Sketching Visual Thoughts to Elicit Multimodal Reasoning in MLLMs

October 28, 2025
papers.authors: Huanyu Zhang, Wenshan Wu, Chengzu Li, Ning Shang, Yan Xia, Yangyu Huang, Yifan Zhang, Li Dong, Zhang Zhang, Liang Wang, Tieniu Tan, Furu Wei
cs.AI

papers.abstract

Während Multimodale Large Language Models (MLLMs) bei der visuellen Wahrnehmung hervorragende Leistungen erbringen, haben sie oft Schwierigkeiten mit komplexen Szenarien, die visuelle Planung und Vorstellungskraft erfordern. Inspiriert davon, wie Menschen Skizzen als eine Form des visuellen Denkens nutzen, um Ideen zu entwickeln und zu kommunizieren, stellen wir Latent Sketchpad vor – ein Framework, das MLLMs mit einem internen visuellen Notizblock ausstattet. Die internen visuellen Repräsentationen von MLLMs waren traditionell auf perzeptuelles Verständnis beschränkt. Wir nutzen sie um, um generatives visuelles Denken zu unterstützen, ohne die Reasoning-Fähigkeiten zu beeinträchtigen. Aufbauend auf modernsten MLLMs integriert unser Ansatz die visuelle Generierung direkt in ihren nativen autoregressiven Reasoning-Prozess. Dies ermöglicht es dem Modell, textuelles Reasoning mit der Generierung visueller Latents zu verschachteln. Diese Latents leiten den internen Denkprozess und können zur besseren Interpretierbarkeit in Skizzenbilder übersetzt werden. Um dies zu realisieren, führen wir zwei Komponenten ein: einen kontextbewussten Vision Head, der visuelle Repräsentationen autoregressiv erzeugt, und einen vortrainierten Sketch Decoder, der diese in menscheninterpretierbare Bilder rendert. Wir evaluieren das Framework auf unserem neuen Datensatz MazePlanning. Experimente mit verschiedenen MLLMs zeigen, dass Latent Sketchpad eine vergleichbare oder sogar überlegene Reasoning-Leistung gegenüber ihren Backbone-Modellen erbringt. Es verallgemeinert zudem über verschiedene moderne MLLMs, einschließlich Gemma3 und Qwen2.5-VL. Indem unser Framework das textuelle Reasoning des Modells auf visuelles Denken erweitert, eröffnet es neue Möglichkeiten für eine reichhaltigere Mensch-Computer-Interaktion und breitere Anwendungen. Weitere Details und Ressourcen sind auf unserer Projektseite verfügbar: https://latent-sketchpad.github.io/.
English
While Multimodal Large Language Models (MLLMs) excel at visual understanding, they often struggle in complex scenarios that require visual planning and imagination. Inspired by how humans use sketching as a form of visual thinking to develop and communicate ideas, we introduce Latent Sketchpad, a framework that equips MLLMs with an internal visual scratchpad. The internal visual representations of MLLMs have traditionally been confined to perceptual understanding. We repurpose them to support generative visual thought without compromising reasoning ability. Building on frontier MLLMs, our approach integrates visual generation directly into their native autoregressive reasoning process. It allows the model to interleave textual reasoning with the generation of visual latents. These latents guide the internal thought process and can be translated into sketch images for interpretability. To realize this, we introduce two components: a Context-Aware Vision Head autoregressively produces visual representations, and a pretrained Sketch Decoder renders these into human-interpretable images. We evaluate the framework on our new dataset MazePlanning. Experiments across various MLLMs show that Latent Sketchpad delivers comparable or even superior reasoning performance to their backbone. It further generalizes across distinct frontier MLLMs, including Gemma3 and Qwen2.5-VL. By extending model's textual reasoning to visual thinking, our framework opens new opportunities for richer human-computer interaction and broader applications. More details and resources are available on our project page: https://latent-sketchpad.github.io/.
PDF201December 1, 2025