ChatPaper.aiChatPaper

Flash-VStream: Geheugengebaseerd Real-Time Begrip voor Lange Videostreams

Flash-VStream: Memory-Based Real-Time Understanding for Long Video Streams

June 12, 2024
Auteurs: Haoji Zhang, Yiqin Wang, Yansong Tang, Yong Liu, Jiashi Feng, Jifeng Dai, Xiaojie Jin
cs.AI

Samenvatting

Profiterend van de vooruitgang in grote taalmodellen en cross-modale afstemming, hebben bestaande multimodale video-begripmethoden opvallende prestaties bereikt in offline scenario's. Echter, online videostreams, als een van de meest voorkomende mediavormen in de echte wereld, hebben zelden aandacht gekregen. In vergelijking met offline video's, stelt de 'dynamische' aard van online videostreams uitdagingen voor de directe toepassing van bestaande modellen en introduceert nieuwe problemen, zoals de opslag van extreem langetermijninformatie, interactie tussen continue visuele inhoud en 'asynchrone' gebruikersvragen. Daarom presenteren we in dit artikel Flash-VStream, een video-taalmodel dat het geheugenmechanisme van de mens simuleert. Ons model is in staat om extreem lange videostreams in realtime te verwerken en tegelijkertijd te reageren op gebruikersvragen. In vergelijking met bestaande modellen, bereikt Flash-VStream aanzienlijke verminderingen in inferentielatentie en VRAM-verbruik, wat nauw samenhangt met het uitvoeren van begrip van online streamingvideo. Bovendien, gezien het feit dat bestaande video-begripbenchmarks zich voornamelijk concentreren op offline scenario's, stellen we VStream-QA voor, een nieuwe vraag-antwoordbenchmark specifiek ontworpen voor online videostreamingbegrip. Vergelijkingen met populaire bestaande methoden op de voorgestelde benchmark demonstreren de superioriteit van onze methode voor zo'n uitdagende setting. Om de generaliseerbaarheid van onze aanpak te verifiëren, evalueren we deze verder op bestaande video-begripbenchmarks en behalen we state-of-the-art prestaties in offline scenario's. Alle code, modellen en datasets zijn beschikbaar op https://invinciblewyq.github.io/vstream-page/.
English
Benefiting from the advancements in large language models and cross-modal alignment, existing multi-modal video understanding methods have achieved prominent performance in offline scenario. However, online video streams, as one of the most common media forms in the real world, have seldom received attention. Compared to offline videos, the 'dynamic' nature of online video streams poses challenges for the direct application of existing models and introduces new problems, such as the storage of extremely long-term information, interaction between continuous visual content and 'asynchronous' user questions. Therefore, in this paper we present Flash-VStream, a video-language model that simulates the memory mechanism of human. Our model is able to process extremely long video streams in real-time and respond to user queries simultaneously. Compared to existing models, Flash-VStream achieves significant reductions in inference latency and VRAM consumption, which is intimately related to performing understanding of online streaming video. In addition, given that existing video understanding benchmarks predominantly concentrate on offline scenario, we propose VStream-QA, a novel question answering benchmark specifically designed for online video streaming understanding. Comparisons with popular existing methods on the proposed benchmark demonstrate the superiority of our method for such challenging setting. To verify the generalizability of our approach, we further evaluate it on existing video understanding benchmarks and achieves state-of-the-art performance in offline scenarios as well. All code, models, and datasets are available at the https://invinciblewyq.github.io/vstream-page/
PDF173February 8, 2026