ChatPaper.aiChatPaper

Visual Haystacks : Répondre à des questions plus complexes sur des ensembles d'images

Visual Haystacks: Answering Harder Questions About Sets of Images

July 18, 2024
Auteurs: Tsung-Han Wu, Giscard Biamby, Jerome Quenum, Ritwik Gupta, Joseph E. Gonzalez, Trevor Darrell, David M. Chan
cs.AI

Résumé

Les récents progrès des modèles multimodaux de grande taille (LMMs) ont permis des avancées significatives dans le domaine de la réponse à des questions visuelles sur une seule image. Cependant, ces modèles rencontrent des défis majeurs lorsqu'ils sont confrontés à des requêtes portant sur de vastes collections d'images, similaires à des scénarios réels tels que la recherche dans de grands albums photo, la recherche d'informations spécifiques sur Internet ou la surveillance des changements environnementaux via l'imagerie satellitaire. Cet article explore la tâche de réponse à des questions visuelles sur plusieurs images (MIQA) : étant donné un grand ensemble d'images et une requête en langage naturel, l'objectif est de générer une réponse pertinente et fondée. Nous proposons un nouveau benchmark public, baptisé "Visual Haystacks (VHs)", spécialement conçu pour évaluer les capacités des LMMs en matière de récupération visuelle et de raisonnement sur des ensembles d'images non liées, où nous effectuons des évaluations approfondies démontrant que même les modèles robustes propriétaires rencontrent des difficultés significatives. Pour remédier à ces lacunes, nous introduisons MIRAGE (Multi-Image Retrieval Augmented Generation), un nouveau cadre de récupération/réponse aux questions adapté aux LMMs qui relève les défis du MIQA avec des améliorations marquées en efficacité et en précision par rapport aux méthodes de base. Notre évaluation montre que MIRAGE surpasse les modèles GPT-4o propriétaires jusqu'à 11% sur le benchmark VHs et offre des améliorations d'efficacité jusqu'à 3,4 fois par rapport aux approches multi-étapes centrées sur le texte.
English
Recent advancements in Large Multimodal Models (LMMs) have made significant progress in the field of single-image visual question answering. However, these models face substantial challenges when tasked with queries that span extensive collections of images, similar to real-world scenarios like searching through large photo albums, finding specific information across the internet, or monitoring environmental changes through satellite imagery. This paper explores the task of Multi-Image Visual Question Answering (MIQA): given a large set of images and a natural language query, the task is to generate a relevant and grounded response. We propose a new public benchmark, dubbed "Visual Haystacks (VHs)," specifically designed to evaluate LMMs' capabilities in visual retrieval and reasoning over sets of unrelated images, where we perform comprehensive evaluations demonstrating that even robust closed-source models struggle significantly. Towards addressing these shortcomings, we introduce MIRAGE (Multi-Image Retrieval Augmented Generation), a novel retrieval/QA framework tailored for LMMs that confronts the challenges of MIQA with marked efficiency and accuracy improvements over baseline methods. Our evaluation shows that MIRAGE surpasses closed-source GPT-4o models by up to 11% on the VHs benchmark and offers up to 3.4x improvements in efficiency over text-focused multi-stage approaches.

Summary

AI-Generated Summary

PDF24November 28, 2024