ChatPaper.aiChatPaper

ING-VP: MLLMs ainda não conseguem jogar jogos simples baseados em visão.

ING-VP: MLLMs cannot Play Easy Vision-based Games Yet

October 9, 2024
Autores: Haoran Zhang, Hangyu Guo, Shuyue Guo, Meng Cao, Wenhao Huang, Jiaheng Liu, Ge Zhang
cs.AI

Resumo

À medida que os modelos de linguagem multimodais de grande escala (MLLMs) continuam a demonstrar um desempenho cada vez mais competitivo em uma ampla gama de tarefas, benchmarks mais intrincados e abrangentes têm sido desenvolvidos para avaliar esses modelos de ponta. Esses benchmarks introduzem novos desafios às capacidades essenciais, como percepção, raciocínio e planejamento. No entanto, os benchmarks multimodais existentes deixam a desejar ao fornecer uma avaliação focada no planejamento de vários passos com base em relações espaciais em imagens. Para preencher essa lacuna, apresentamos o ING-VP, o primeiro benchmark INterativo de Visão e Planejamento baseado em jogos, especificamente projetado para avaliar a imaginação espacial e as habilidades de raciocínio de vários passos dos MLLMs. O ING-VP apresenta 6 jogos distintos, abrangendo 300 níveis, cada um com 6 configurações únicas. Um único modelo participa de mais de 60.000 rodadas de interação. O framework do benchmark permite várias configurações de comparação, incluindo entradas de imagem-texto vs. apenas texto, raciocínio de um único passo vs. de vários passos e condições com histórico vs. sem histórico, oferecendo insights valiosos sobre as capacidades do modelo. Avaliamos numerosos MLLMs de ponta, com o modelo de melhor desempenho, Claude-3.5 Sonnet, alcançando uma precisão média de apenas 3,37%, muito abaixo do padrão esperado. Este trabalho tem como objetivo fornecer um framework de avaliação especializado para impulsionar os avanços na capacidade dos MLLMs em raciocínio espacial e planejamento complexo. O código está disponível publicamente em https://github.com/Thisisus7/ING-VP.git.
English
As multimodal large language models (MLLMs) continue to demonstrate increasingly competitive performance across a broad spectrum of tasks, more intricate and comprehensive benchmarks have been developed to assess these cutting-edge models. These benchmarks introduce new challenges to core capabilities such as perception, reasoning, and planning. However, existing multimodal benchmarks fall short in providing a focused evaluation of multi-step planning based on spatial relationships in images. To bridge this gap, we present ING-VP, the first INteractive Game-based Vision Planning benchmark, specifically designed to evaluate the spatial imagination and multi-step reasoning abilities of MLLMs. ING-VP features 6 distinct games, encompassing 300 levels, each with 6 unique configurations. A single model engages in over 60,000 rounds of interaction. The benchmark framework allows for multiple comparison settings, including image-text vs. text-only inputs, single-step vs. multi-step reasoning, and with-history vs. without-history conditions, offering valuable insights into the model's capabilities. We evaluated numerous state-of-the-art MLLMs, with the highest-performing model, Claude-3.5 Sonnet, achieving an average accuracy of only 3.37%, far below the anticipated standard. This work aims to provide a specialized evaluation framework to drive advancements in MLLMs' capacity for complex spatial reasoning and planning. The code is publicly available at https://github.com/Thisisus7/ING-VP.git.

Summary

AI-Generated Summary

PDF82November 16, 2024