ChatPaper.aiChatPaper

Bloco de Rascunho Visual: Esboço como uma Cadeia de Pensamento Visual para Modelos de Linguagem Multimodais

Visual Sketchpad: Sketching as a Visual Chain of Thought for Multimodal Language Models

June 13, 2024
Autores: Yushi Hu, Weijia Shi, Xingyu Fu, Dan Roth, Mari Ostendorf, Luke Zettlemoyer, Noah A Smith, Ranjay Krishna
cs.AI

Resumo

Os seres humanos desenham para facilitar o raciocínio: traçamos linhas auxiliares ao resolver problemas de geometria; marcamos e circulamos ao raciocinar sobre mapas; usamos esboços para ampliar nossas ideias e aliviar nossa memória de trabalho de capacidade limitada. No entanto, tais ações estão ausentes nos atuais modelos de linguagem multimodal (LMs). Os paradigmas atuais de cadeia de pensamento e uso de ferramentas utilizam apenas texto como etapas intermediárias de raciocínio. Neste trabalho, apresentamos o Sketchpad, uma estrutura que fornece aos LMs multimodais uma lousa visual e ferramentas para desenhar nessa lousa. O LM realiza planejamento e raciocínio com base nos artefatos visuais que desenhou. Diferente de trabalhos anteriores, que usam modelos de texto para imagem para permitir que LMs desenhem, o Sketchpad permite que LMs desenhem com linhas, caixas, marcas, etc., o que é mais próximo do esboço humano e facilita melhor o raciocínio. O Sketchpad também pode usar modelos de visão especializados durante o processo de esboço (por exemplo, desenhar caixas delimitadoras com modelos de detecção de objetos, desenhar máscaras com modelos de segmentação), para aprimorar ainda mais a percepção visual e o raciocínio. Realizamos experimentos com uma ampla gama de tarefas matemáticas (incluindo geometria, funções, gráficos e xadrez) e tarefas complexas de raciocínio visual. O Sketchpad melhora substancialmente o desempenho em todas as tarefas em relação a modelos base robustos sem esboço, resultando em um ganho médio de 12,7% em tarefas matemáticas e 8,6% em tarefas visuais. O GPT-4o com Sketchpad estabelece um novo estado da arte em todas as tarefas, incluindo V*Bench (80,3%), raciocínio espacial BLINK (83,9%) e correspondência visual (80,8%). Todos os códigos e dados estão disponíveis em https://visualsketchpad.github.io/.
English
Humans draw to facilitate reasoning: we draw auxiliary lines when solving geometry problems; we mark and circle when reasoning on maps; we use sketches to amplify our ideas and relieve our limited-capacity working memory. However, such actions are missing in current multimodal language models (LMs). Current chain-of-thought and tool-use paradigms only use text as intermediate reasoning steps. In this work, we introduce Sketchpad, a framework that gives multimodal LMs a visual sketchpad and tools to draw on the sketchpad. The LM conducts planning and reasoning according to the visual artifacts it has drawn. Different from prior work, which uses text-to-image models to enable LMs to draw, Sketchpad enables LMs to draw with lines, boxes, marks, etc., which is closer to human sketching and better facilitates reasoning. Sketchpad can also use specialist vision models during the sketching process (e.g., draw bounding boxes with object detection models, draw masks with segmentation models), to further enhance visual perception and reasoning. We experiment with a wide range of math tasks (including geometry, functions, graphs, and chess) and complex visual reasoning tasks. Sketchpad substantially improves performance on all tasks over strong base models with no sketching, yielding an average gain of 12.7% on math tasks, and 8.6% on vision tasks. GPT-4o with Sketchpad sets a new state of the art on all tasks, including V*Bench (80.3%), BLINK spatial reasoning (83.9%), and visual correspondence (80.8%). All codes and data are in https://visualsketchpad.github.io/.
PDF231December 6, 2024