ChatPaper.aiChatPaper

MARS2 2025 Challenge sul Ragionamento Multimodale: Dataset, Metodi, Risultati, Discussione e Prospettive Future

MARS2 2025 Challenge on Multimodal Reasoning: Datasets, Methods, Results, Discussion, and Outlook

September 17, 2025
Autori: Peng Xu, Shengwu Xiong, Jiajun Zhang, Yaxiong Chen, Bowen Zhou, Chen Change Loy, David A. Clifton, Kyoung Mu Lee, Luc Van Gool, Ruiming He, Ruilin Yao, Xinwei Long, Jirui Huang, Kai Tian, Sa Yang, Yihua Shao, Jin Feng, Yue Zhong, Jiakai Zhou, Cheng Tang, Tianyu Zou, Yifang Zhang, Junming Liang, Guoyou Li, Zhaoxiang Wang, Qiang Zhou, Yichen Zhao, Shili Xiong, Hyeongjin Nam, Jaerin Lee, Jaeyoung Chung, JoonKyu Park, Junghun Oh, Kanggeon Lee, Wooseok Lee, Juneyoung Ro, Turghun Osman, Can Hu, Chaoyang Liao, Cheng Chen, Chengcheng Han, Chenhao Qiu, Chong Peng, Cong Xu, Dailin Li, Feiyu Wang, Feng Gao, Guibo Zhu, Guopeng Tang, Haibo Lu, Han Fang, Han Qi, Hanxiao Wu, Haobo Cheng, Hongbo Sun, Hongyao Chen, Huayong Hu, Hui Li, Jiaheng Ma, Jiang Yu, Jianing Wang, Jie Yang, Jing He, Jinglin Zhou, Jingxuan Li, Josef Kittler, Lihao Zheng, Linnan Zhao, Mengxi Jia, Muyang Yan, Nguyen Thanh Thien, Pu Luo, Qi Li, Shien Song, Shijie Dong, Shuai Shao, Shutao Li, Taofeng Xue, Tianyang Xu, Tianyi Gao, Tingting Li, Wei Zhang, Weiyang Su, Xiaodong Dong, Xiao-Jun Wu, Xiaopeng Zhou, Xin Chen, Xin Wei, Xinyi You, Xudong Kang, Xujie Zhou, Xusheng Liu, Yanan Wang, Yanbin Huang, Yang Liu, Yang Yang, Yanglin Deng, Yashu Kang, Ye Yuan, Yi Wen, Yicen Tian, Yilin Tao, Yin Tang, Yipeng Lin, Yiqing Wang, Yiting Xi, Yongkang Yu, Yumei Li, Yuxin Qin, Yuying Chen, Yuzhe Cen, Zhaofan Zou, Zhaohong Liu, Zhehao Shen, Zhenglin Du, Zhengyang Li, Zhenni Huang, Zhenwei Shao, Zhilong Song, Zhiyong Feng, Zhiyu Wang, Zhou Yu, Ziang Li, Zihan Zhai, Zijian Zhang, Ziyang Peng, Ziyun Xiao, Zongshu Li
cs.AI

Abstract

Questo articolo esamina la MARS2 2025 Challenge sul Ragionamento Multimodale. Il nostro obiettivo è riunire diversi approcci nell'apprendimento automatico multimodale e nei modelli linguistici di grandi dimensioni (LLM) attraverso un ampio benchmark. Speriamo che ciò consenta ai ricercatori di seguire più facilmente lo stato dell'arte in questo campo in rapida evoluzione. Nel frattempo, un numero crescente di testbed ha favorito l'evoluzione di modelli linguistici di grandi dimensioni a scopo generale. Pertanto, quest'anno la MARS2 si concentra su scenari reali e specializzati per ampliare le applicazioni del ragionamento multimodale nei modelli di apprendimento multimodale (MLLM). Il nostro team organizzativo ha rilasciato due dataset su misura, Lens e AdsQA, come set di test, che supportano rispettivamente il ragionamento generale in 12 scenari quotidiani e il ragionamento specifico per il dominio nei video pubblicitari. Abbiamo valutato oltre 40 baseline che includono sia MLLM generalisti che modelli specifici per compiti, e abbiamo aperto tre tracce di competizione, ovvero Visual Grounding in Scenari Reali (VG-RS), Visual Question Answering con Consapevolezza Spaziale (VQA-SA) e Ragionamento Visivo nei Video Pubblicitari Creativi (VR-Ads). Infine, 76 team provenienti da rinomate istituzioni accademiche e industriali si sono registrati e oltre 40 submission valide (su più di 1200) sono state incluse nelle nostre classifiche. I nostri dataset, set di codice (oltre 40 baseline e più di 15 metodi dei partecipanti) e classifiche sono pubblicamente disponibili sul sito web del workshop MARS2 e sulla nostra pagina GitHub https://github.com/mars2workshop/, dove i nostri aggiornamenti e gli annunci sugli eventi futuri verranno forniti in modo continuativo.
English
This paper reviews the MARS2 2025 Challenge on Multimodal Reasoning. We aim to bring together different approaches in multimodal machine learning and LLMs via a large benchmark. We hope it better allows researchers to follow the state-of-the-art in this very dynamic area. Meanwhile, a growing number of testbeds have boosted the evolution of general-purpose large language models. Thus, this year's MARS2 focuses on real-world and specialized scenarios to broaden the multimodal reasoning applications of MLLMs. Our organizing team released two tailored datasets Lens and AdsQA as test sets, which support general reasoning in 12 daily scenarios and domain-specific reasoning in advertisement videos, respectively. We evaluated 40+ baselines that include both generalist MLLMs and task-specific models, and opened up three competition tracks, i.e., Visual Grounding in Real-world Scenarios (VG-RS), Visual Question Answering with Spatial Awareness (VQA-SA), and Visual Reasoning in Creative Advertisement Videos (VR-Ads). Finally, 76 teams from the renowned academic and industrial institutions have registered and 40+ valid submissions (out of 1200+) have been included in our ranking lists. Our datasets, code sets (40+ baselines and 15+ participants' methods), and rankings are publicly available on the MARS2 workshop website and our GitHub organization page https://github.com/mars2workshop/, where our updates and announcements of upcoming events will be continuously provided.
PDF102September 18, 2025