ChatPaper.aiChatPaper

BIMBA : Compression par balayage sélectif pour la réponse à des questions sur des vidéos à longue portée

BIMBA: Selective-Scan Compression for Long-Range Video Question Answering

March 12, 2025
Auteurs: Md Mohaiminul Islam, Tushar Nagarajan, Huiyu Wang, Gedas Bertasius, Lorenzo Torresani
cs.AI

Résumé

Le Question-Réponse Vidéo (VQA) dans les vidéos longues présente le défi majeur d'extraire des informations pertinentes et de modéliser les dépendances à long terme à partir de nombreux plans redondants. Le mécanisme d'auto-attention offre une solution générale pour la modélisation de séquences, mais son coût devient prohibitif lorsqu'il est appliqué à un nombre massif de tokens spatio-temporels dans les vidéos longues. La plupart des méthodes antérieures reposent sur des stratégies de compression pour réduire le coût computationnel, comme la réduction de la longueur d'entrée via un échantillonnage de plans clairsemés ou la compression de la séquence de sortie transmise au grand modèle de langage (LLM) via un pooling spatio-temporel. Cependant, ces approches naïves surreprésentent les informations redondantes et manquent souvent des événements saillants ou des motifs spatio-temporels rapides. Dans ce travail, nous introduisons BIMBA, un modèle efficace à espace d'états pour traiter les vidéos longues. Notre modèle exploite l'algorithme de balayage sélectif pour apprendre à sélectionner efficacement les informations critiques à partir de vidéos de haute dimension et les transformer en une séquence de tokens réduite pour un traitement efficace par le LLM. Des expériences approfondies démontrent que BIMBA atteint une précision de pointe sur plusieurs benchmarks de VQA pour vidéos longues, notamment PerceptionTest, NExT-QA, EgoSchema, VNBench, LongVideoBench et Video-MME. Le code et les modèles sont disponibles publiquement à l'adresse https://sites.google.com/view/bimba-mllm.
English
Video Question Answering (VQA) in long videos poses the key challenge of extracting relevant information and modeling long-range dependencies from many redundant frames. The self-attention mechanism provides a general solution for sequence modeling, but it has a prohibitive cost when applied to a massive number of spatiotemporal tokens in long videos. Most prior methods rely on compression strategies to lower the computational cost, such as reducing the input length via sparse frame sampling or compressing the output sequence passed to the large language model (LLM) via space-time pooling. However, these naive approaches over-represent redundant information and often miss salient events or fast-occurring space-time patterns. In this work, we introduce BIMBA, an efficient state-space model to handle long-form videos. Our model leverages the selective scan algorithm to learn to effectively select critical information from high-dimensional video and transform it into a reduced token sequence for efficient LLM processing. Extensive experiments demonstrate that BIMBA achieves state-of-the-art accuracy on multiple long-form VQA benchmarks, including PerceptionTest, NExT-QA, EgoSchema, VNBench, LongVideoBench, and Video-MME. Code, and models are publicly available at https://sites.google.com/view/bimba-mllm.

Summary

AI-Generated Summary

PDF32March 13, 2025