ChatPaper.aiChatPaper

MMG-Ego4D: Multimodale Generalisatie in Egocentrische Actieherkenning

MMG-Ego4D: Multi-Modal Generalization in Egocentric Action Recognition

May 12, 2023
Auteurs: Xinyu Gong, Sreyas Mohan, Naina Dhingra, Jean-Charles Bazin, Yilei Li, Zhangyang Wang, Rakesh Ranjan
cs.AI

Samenvatting

In dit artikel bestuderen we een nieuw probleem in egocentrische actieherkenning, dat we "Multimodale Generalisatie" (MMG) noemen. MMG heeft als doel te onderzoeken hoe systemen kunnen generaliseren wanneer gegevens van bepaalde modaliteiten beperkt of zelfs volledig afwezig zijn. We onderzoeken MMG grondig in de context van standaard gesuperviseerde actieherkenning en de uitdagendere few-shot instelling voor het leren van nieuwe actiecategorieën. MMG bestaat uit twee nieuwe scenario's, ontworpen om veiligheids- en efficiëntieoverwegingen in real-world toepassingen te ondersteunen: (1) generalisatie bij ontbrekende modaliteiten, waarbij sommige modaliteiten die tijdens de training aanwezig waren, tijdens de inferentie ontbreken, en (2) cross-modale zero-shot generalisatie, waarbij de modaliteiten die tijdens de inferentie en de training aanwezig zijn, disjunct zijn. Om dit onderzoek mogelijk te maken, construeren we een nieuwe dataset MMG-Ego4D met datapunten met video-, audio- en traagheidsbewegingssensor (IMU)-modaliteiten. Onze dataset is afgeleid van de Ego4D-dataset, maar is verwerkt en grondig opnieuw geannoteerd door menselijke experts om onderzoek naar het MMG-probleem te faciliteren. We evalueren een diverse reeks modellen op MMG-Ego4D en stellen nieuwe methoden voor met een verbeterde generalisatiecapaciteit. In het bijzonder introduceren we een nieuwe fusiemodule met modaliteitsdropout-training, contrastieve aligneringstraining en een nieuwe cross-modale prototypische verliesfunctie voor betere few-shot prestaties. We hopen dat deze studie zal dienen als een benchmark en toekomstig onderzoek naar multimodale generalisatieproblemen zal begeleiden. De benchmark en code zullen beschikbaar zijn op https://github.com/facebookresearch/MMG_Ego4D.
English
In this paper, we study a novel problem in egocentric action recognition, which we term as "Multimodal Generalization" (MMG). MMG aims to study how systems can generalize when data from certain modalities is limited or even completely missing. We thoroughly investigate MMG in the context of standard supervised action recognition and the more challenging few-shot setting for learning new action categories. MMG consists of two novel scenarios, designed to support security, and efficiency considerations in real-world applications: (1) missing modality generalization where some modalities that were present during the train time are missing during the inference time, and (2) cross-modal zero-shot generalization, where the modalities present during the inference time and the training time are disjoint. To enable this investigation, we construct a new dataset MMG-Ego4D containing data points with video, audio, and inertial motion sensor (IMU) modalities. Our dataset is derived from Ego4D dataset, but processed and thoroughly re-annotated by human experts to facilitate research in the MMG problem. We evaluate a diverse array of models on MMG-Ego4D and propose new methods with improved generalization ability. In particular, we introduce a new fusion module with modality dropout training, contrastive-based alignment training, and a novel cross-modal prototypical loss for better few-shot performance. We hope this study will serve as a benchmark and guide future research in multimodal generalization problems. The benchmark and code will be available at https://github.com/facebookresearch/MMG_Ego4D.
PDF10December 15, 2024