ChatPaper.aiChatPaper

MM-Ego: Naar het bouwen van egocentrische multimodale taalmodelen

MM-Ego: Towards Building Egocentric Multimodal LLMs

October 9, 2024
Auteurs: Hanrong Ye, Haotian Zhang, Erik Daxberger, Lin Chen, Zongyu Lin, Yanghao Li, Bowen Zhang, Haoxuan You, Dan Xu, Zhe Gan, Jiasen Lu, Yinfei Yang
cs.AI

Samenvatting

Dit onderzoek heeft tot doel om op een allesomvattende manier een multimodaal fundamentmodel te verkennen voor het begrijpen van egocentrische video's. Om dit doel te bereiken, werken we aan drie fronten. Ten eerste, aangezien er een gebrek is aan QA-gegevens voor het begrijpen van egocentrische video's, ontwikkelen we een gegevensengine die efficiënt 7 miljoen hoogwaardige QA-voorbeelden genereert voor egocentrische video's van 30 seconden tot een uur lang, gebaseerd op door mensen geannoteerde gegevens. Dit is momenteel de grootste egocentrische QA-dataset. Ten tweede dragen we bij aan een uitdagende egocentrische QA-benchmark met 629 video's en 7.026 vragen om de mogelijkheid van modellen te evalueren om visuele details te herkennen en te onthouden in video's van verschillende lengtes. We introduceren een nieuwe de-biasing evaluatiemethode om te helpen bij het verminderen van de onvermijdelijke taalbias die aanwezig is in de modellen die worden geëvalueerd. Ten derde stellen we een gespecialiseerde multimodale architectuur voor met een nieuw mechanisme genaamd "Memory Pointer Prompting". Deze opzet omvat een globale blikstap om een overkoepelend begrip van de hele video te krijgen en belangrijke visuele informatie te identificeren, gevolgd door een fallback-stap die de belangrijke visuele informatie gebruikt om antwoorden te genereren. Dit stelt het model in staat om de uitgebreide videoinhoud effectiever te begrijpen. Met de gegevens, benchmark en model bouwen we met succes MM-Ego, een egocentrische multimodale LLM die krachtige prestaties laat zien op het begrijpen van egocentrische video's.
English
This research aims to comprehensively explore building a multimodal foundation model for egocentric video understanding. To achieve this goal, we work on three fronts. First, as there is a lack of QA data for egocentric video understanding, we develop a data engine that efficiently generates 7M high-quality QA samples for egocentric videos ranging from 30 seconds to one hour long, based on human-annotated data. This is currently the largest egocentric QA dataset. Second, we contribute a challenging egocentric QA benchmark with 629 videos and 7,026 questions to evaluate the models' ability in recognizing and memorizing visual details across videos of varying lengths. We introduce a new de-biasing evaluation method to help mitigate the unavoidable language bias present in the models being evaluated. Third, we propose a specialized multimodal architecture featuring a novel "Memory Pointer Prompting" mechanism. This design includes a global glimpse step to gain an overarching understanding of the entire video and identify key visual information, followed by a fallback step that utilizes the key visual information to generate responses. This enables the model to more effectively comprehend extended video content. With the data, benchmark, and model, we successfully build MM-Ego, an egocentric multimodal LLM that shows powerful performance on egocentric video understanding.

Summary

AI-Generated Summary

PDF223November 16, 2024