ChatPaper.aiChatPaper

Tableau Visuel : L'esquisse comme chaîne de pensée visuelle pour les modèles de langage multimodaux

Visual Sketchpad: Sketching as a Visual Chain of Thought for Multimodal Language Models

June 13, 2024
Auteurs: Yushi Hu, Weijia Shi, Xingyu Fu, Dan Roth, Mari Ostendorf, Luke Zettlemoyer, Noah A Smith, Ranjay Krishna
cs.AI

Résumé

Les humains dessinent pour faciliter le raisonnement : nous traçons des lignes auxiliaires pour résoudre des problèmes de géométrie ; nous annotons et encadrons lorsque nous raisonnons sur des cartes ; nous utilisons des croquis pour amplifier nos idées et soulager notre mémoire de travail à capacité limitée. Cependant, de telles actions sont absentes des modèles de langage multimodaux (LMs) actuels. Les paradigmes actuels de chaîne de pensée et d'utilisation d'outils n'utilisent que le texte comme étapes intermédiaires de raisonnement. Dans ce travail, nous présentons Sketchpad, un cadre qui donne aux LMs multimodaux un tableau de croquis visuel et des outils pour dessiner sur ce tableau. Le LM effectue la planification et le raisonnement en fonction des artefacts visuels qu'il a dessinés. Contrairement aux travaux antérieurs, qui utilisent des modèles texte-à-image pour permettre aux LMs de dessiner, Sketchpad permet aux LMs de dessiner avec des lignes, des boîtes, des annotations, etc., ce qui est plus proche du croquis humain et facilite mieux le raisonnement. Sketchpad peut également utiliser des modèles de vision spécialisés pendant le processus de dessin (par exemple, dessiner des boîtes englobantes avec des modèles de détection d'objets, dessiner des masques avec des modèles de segmentation), pour améliorer encore la perception visuelle et le raisonnement. Nous expérimentons sur une large gamme de tâches mathématiques (y compris la géométrie, les fonctions, les graphiques et les échecs) et de tâches complexes de raisonnement visuel. Sketchpad améliore considérablement les performances sur toutes les tâches par rapport à des modèles de base solides sans croquis, avec un gain moyen de 12,7 % sur les tâches mathématiques et de 8,6 % sur les tâches visuelles. GPT-4o avec Sketchpad établit un nouvel état de l'art sur toutes les tâches, y compris V*Bench (80,3 %), le raisonnement spatial BLINK (83,9 %) et la correspondance visuelle (80,8 %). Tous les codes et données sont disponibles sur https://visualsketchpad.github.io/.
English
Humans draw to facilitate reasoning: we draw auxiliary lines when solving geometry problems; we mark and circle when reasoning on maps; we use sketches to amplify our ideas and relieve our limited-capacity working memory. However, such actions are missing in current multimodal language models (LMs). Current chain-of-thought and tool-use paradigms only use text as intermediate reasoning steps. In this work, we introduce Sketchpad, a framework that gives multimodal LMs a visual sketchpad and tools to draw on the sketchpad. The LM conducts planning and reasoning according to the visual artifacts it has drawn. Different from prior work, which uses text-to-image models to enable LMs to draw, Sketchpad enables LMs to draw with lines, boxes, marks, etc., which is closer to human sketching and better facilitates reasoning. Sketchpad can also use specialist vision models during the sketching process (e.g., draw bounding boxes with object detection models, draw masks with segmentation models), to further enhance visual perception and reasoning. We experiment with a wide range of math tasks (including geometry, functions, graphs, and chess) and complex visual reasoning tasks. Sketchpad substantially improves performance on all tasks over strong base models with no sketching, yielding an average gain of 12.7% on math tasks, and 8.6% on vision tasks. GPT-4o with Sketchpad sets a new state of the art on all tasks, including V*Bench (80.3%), BLINK spatial reasoning (83.9%), and visual correspondence (80.8%). All codes and data are in https://visualsketchpad.github.io/.

Summary

AI-Generated Summary

PDF221December 6, 2024