ChatPaper.aiChatPaper

Collegare le prospettive: una rassegna sull'intelligenza collaborativa cross-view con visione egocentrica ed esocentrica

Bridging Perspectives: A Survey on Cross-view Collaborative Intelligence with Egocentric-Exocentric Vision

June 6, 2025
Autori: Yuping He, Yifei Huang, Guo Chen, Lidong Lu, Baoqi Pei, Jilan Xu, Tong Lu, Yoichi Sato
cs.AI

Abstract

Percepire il mondo sia da una prospettiva egocentrica (in prima persona) che esocentrica (in terza persona) è fondamentale per la cognizione umana, consentendo una comprensione ricca e complementare degli ambienti dinamici. Negli ultimi anni, permettere alle macchine di sfruttare il potenziale sinergico di queste due prospettive è emerso come una direzione di ricerca convincente nel campo della comprensione video. In questa rassegna, forniamo una revisione completa della comprensione video sia dal punto di vista esocentrico che egocentrico. Iniziamo evidenziando le applicazioni pratiche dell'integrazione di tecniche egocentriche ed esocentriche, immaginando la loro potenziale collaborazione tra diversi domini. Identifichiamo poi le principali attività di ricerca necessarie per realizzare queste applicazioni. Successivamente, organizziamo e revisioniamo sistematicamente i recenti progressi in tre principali direzioni di ricerca: (1) sfruttare i dati egocentrici per migliorare la comprensione esocentrica, (2) utilizzare i dati esocentrici per migliorare l'analisi egocentrica, e (3) framework di apprendimento congiunto che uniscono entrambe le prospettive. Per ciascuna direzione, analizziamo una serie diversificata di compiti e lavori rilevanti. Inoltre, discutiamo i dataset di riferimento che supportano la ricerca in entrambe le prospettive, valutandone l'ambito, la diversità e l'applicabilità. Infine, discutiamo i limiti dei lavori attuali e proponiamo promettenti direzioni di ricerca future. Sintetizzando le intuizioni da entrambe le prospettive, il nostro obiettivo è ispirare progressi nella comprensione video e nell'intelligenza artificiale, avvicinando le macchine a una percezione del mondo simile a quella umana. Un repository GitHub di lavori correlati è disponibile all'indirizzo https://github.com/ayiyayi/Awesome-Egocentric-and-Exocentric-Vision.
English
Perceiving the world from both egocentric (first-person) and exocentric (third-person) perspectives is fundamental to human cognition, enabling rich and complementary understanding of dynamic environments. In recent years, allowing the machines to leverage the synergistic potential of these dual perspectives has emerged as a compelling research direction in video understanding. In this survey, we provide a comprehensive review of video understanding from both exocentric and egocentric viewpoints. We begin by highlighting the practical applications of integrating egocentric and exocentric techniques, envisioning their potential collaboration across domains. We then identify key research tasks to realize these applications. Next, we systematically organize and review recent advancements into three main research directions: (1) leveraging egocentric data to enhance exocentric understanding, (2) utilizing exocentric data to improve egocentric analysis, and (3) joint learning frameworks that unify both perspectives. For each direction, we analyze a diverse set of tasks and relevant works. Additionally, we discuss benchmark datasets that support research in both perspectives, evaluating their scope, diversity, and applicability. Finally, we discuss limitations in current works and propose promising future research directions. By synthesizing insights from both perspectives, our goal is to inspire advancements in video understanding and artificial intelligence, bringing machines closer to perceiving the world in a human-like manner. A GitHub repo of related works can be found at https://github.com/ayiyayi/Awesome-Egocentric-and-Exocentric-Vision.
PDF92June 9, 2025