ChatPaper.aiChatPaper

BIMBA: Selectieve-Scan Compressie voor Langeafstands Video Vraagbeantwoording

BIMBA: Selective-Scan Compression for Long-Range Video Question Answering

March 12, 2025
Auteurs: Md Mohaiminul Islam, Tushar Nagarajan, Huiyu Wang, Gedas Bertasius, Lorenzo Torresani
cs.AI

Samenvatting

Video Question Answering (VQA) in lange video's vormt de belangrijkste uitdaging van het extraheren van relevante informatie en het modelleren van langetermijnafhankelijkheden uit vele redundante frames. Het self-attention-mechanisme biedt een algemene oplossing voor sequentiemodellering, maar het heeft een verbijsterende kostprijs wanneer het wordt toegepast op een enorm aantal spatiotemporele tokens in lange video's. De meeste eerdere methoden vertrouwen op compressiestrategieën om de rekenkosten te verlagen, zoals het verminderen van de invoerlengte via sparse frame sampling of het comprimeren van de uitvoerreeks die wordt doorgegeven aan het grote taalmodel (LLM) via ruimte-tijd pooling. Deze naïeve benaderingen overrepresenteren echter redundante informatie en missen vaak opvallende gebeurtenissen of snel optredende ruimte-tijdpatronen. In dit werk introduceren we BIMBA, een efficiënt state-space-model om lange video's te verwerken. Ons model maakt gebruik van het selectieve scan-algoritme om kritieke informatie effectief te selecteren uit hoogdimensionale video's en deze om te zetten in een gereduceerde tokenreeks voor efficiënte LLM-verwerking. Uitgebreide experimenten tonen aan dat BIMBA state-of-the-art nauwkeurigheid bereikt op meerdere lange VQA-benchmarks, waaronder PerceptionTest, NExT-QA, EgoSchema, VNBench, LongVideoBench en Video-MME. Code en modellen zijn openbaar beschikbaar op https://sites.google.com/view/bimba-mllm.
English
Video Question Answering (VQA) in long videos poses the key challenge of extracting relevant information and modeling long-range dependencies from many redundant frames. The self-attention mechanism provides a general solution for sequence modeling, but it has a prohibitive cost when applied to a massive number of spatiotemporal tokens in long videos. Most prior methods rely on compression strategies to lower the computational cost, such as reducing the input length via sparse frame sampling or compressing the output sequence passed to the large language model (LLM) via space-time pooling. However, these naive approaches over-represent redundant information and often miss salient events or fast-occurring space-time patterns. In this work, we introduce BIMBA, an efficient state-space model to handle long-form videos. Our model leverages the selective scan algorithm to learn to effectively select critical information from high-dimensional video and transform it into a reduced token sequence for efficient LLM processing. Extensive experiments demonstrate that BIMBA achieves state-of-the-art accuracy on multiple long-form VQA benchmarks, including PerceptionTest, NExT-QA, EgoSchema, VNBench, LongVideoBench, and Video-MME. Code, and models are publicly available at https://sites.google.com/view/bimba-mllm.

Summary

AI-Generated Summary

PDF32March 13, 2025