VidEgoThink: Het beoordelen van de mogelijkheden voor het begrijpen van egocentrische video's voor geïncarneerde AI.VidEgoThink: Assessing Egocentric Video Understanding Capabilities for
Embodied AI
Recente ontwikkelingen in Multi-modale Grote Taalmodellen (MLLM's) hebben nieuwe mogelijkheden geopend voor toepassingen in Embodied AI. Voortbouwend op eerdere werkzaamheden, EgoThink, introduceren we VidEgoThink, een uitgebreide benchmark voor het evalueren van egocentrische videobegripsmogelijkheden. Om de kloof tussen MLLM's en laag-niveau controle in Embodied AI te overbruggen, ontwerpen we vier sleutelgerelateerde taken: video-vraagbeantwoording, hiërarchieplanning, visuele verankering en beloningsmodellering. Om de kosten van handmatige annotatie te minimaliseren, ontwikkelen we een automatisch gegevensgeneratieproces op basis van de Ego4D-dataset, waarbij gebruik wordt gemaakt van de voorkennis en multimodale mogelijkheden van GPT-4o. Vervolgens filteren drie menselijke annotatoren de gegenereerde gegevens om diversiteit en kwaliteit te waarborgen, resulterend in de VidEgoThink benchmark. We voeren uitgebreide experimenten uit met drie soorten modellen: API-gebaseerde MLLM's, open-source afbeeldingsgebaseerde MLLM's en open-source videogebaseerde MLLM's. Experimentele resultaten geven aan dat alle MLLM's, inclusief GPT-4o, slecht presteren op alle taken met betrekking tot egocentrisch videobegrip. Deze bevindingen suggereren dat foundation modellen nog aanzienlijke vooruitgang nodig hebben om effectief toegepast te kunnen worden op eerstepersoonsscenario's in Embodied AI. Ter afsluiting weerspiegelt VidEgoThink een onderzoekstrend om MLLM's in te zetten voor egocentrische visie, vergelijkbaar met menselijke mogelijkheden, waardoor actieve observatie en interactie in complexe real-world omgevingen mogelijk worden gemaakt.