ChatPaper.aiChatPaper

ING-VP: МЛММ пока не могут играть в простые видеоигры на основе зрения.

ING-VP: MLLMs cannot Play Easy Vision-based Games Yet

October 9, 2024
Авторы: Haoran Zhang, Hangyu Guo, Shuyue Guo, Meng Cao, Wenhao Huang, Jiaheng Liu, Ge Zhang
cs.AI

Аннотация

Поскольку многомодальные крупные языковые модели (MLLM) продолжают демонстрировать все более конкурентоспособные результаты в широком спектре задач, были разработаны более сложные и всесторонние бенчмарки для оценки этих передовых моделей. Эти бенчмарки вводят новые вызовы для основных возможностей, таких как восприятие, рассуждение и планирование. Однако существующие многомодальные бенчмарки не обеспечивают фокусированной оценки многошагового планирования на основе пространственных отношений в изображениях. Для заполнения этого пробела мы представляем ING-VP, первый игровой бенчмарк на основе зрительного планирования, специально разработанный для оценки пространственного воображения и многошаговых рассуждений MLLM. ING-VP включает в себя 6 различных игр, охватывающих 300 уровней, каждый из которых имеет 6 уникальных конфигураций. Одна модель участвует в более чем 60 000 раундов взаимодействия. Фреймворк бенчмарка позволяет использовать несколько настроек сравнения, включая ввод изображения-текст против только текста, одношаговое против многошагового рассуждения, а также условия с историей и без истории, предоставляя ценные исследования возможностей модели. Мы оценили множество передовых MLLM, и наилучшая модель, Claude-3.5 Sonnet, достигла средней точности всего лишь 3,37%, значительно ниже ожидаемого стандарта. Эта работа направлена на создание специализированного фреймворка оценки для продвижения вместимости MLLM в сложном пространственном рассуждении и планировании. Код общедоступен по адресу https://github.com/Thisisus7/ING-VP.git.
English
As multimodal large language models (MLLMs) continue to demonstrate increasingly competitive performance across a broad spectrum of tasks, more intricate and comprehensive benchmarks have been developed to assess these cutting-edge models. These benchmarks introduce new challenges to core capabilities such as perception, reasoning, and planning. However, existing multimodal benchmarks fall short in providing a focused evaluation of multi-step planning based on spatial relationships in images. To bridge this gap, we present ING-VP, the first INteractive Game-based Vision Planning benchmark, specifically designed to evaluate the spatial imagination and multi-step reasoning abilities of MLLMs. ING-VP features 6 distinct games, encompassing 300 levels, each with 6 unique configurations. A single model engages in over 60,000 rounds of interaction. The benchmark framework allows for multiple comparison settings, including image-text vs. text-only inputs, single-step vs. multi-step reasoning, and with-history vs. without-history conditions, offering valuable insights into the model's capabilities. We evaluated numerous state-of-the-art MLLMs, with the highest-performing model, Claude-3.5 Sonnet, achieving an average accuracy of only 3.37%, far below the anticipated standard. This work aims to provide a specialized evaluation framework to drive advancements in MLLMs' capacity for complex spatial reasoning and planning. The code is publicly available at https://github.com/Thisisus7/ING-VP.git.

Summary

AI-Generated Summary

PDF82November 16, 2024