ChatPaper.aiChatPaper

MARS2 2025: Соревнование по мультимодальным рассуждениям: наборы данных, методы, результаты, обсуждение и перспективы

MARS2 2025 Challenge on Multimodal Reasoning: Datasets, Methods, Results, Discussion, and Outlook

September 17, 2025
Авторы: Peng Xu, Shengwu Xiong, Jiajun Zhang, Yaxiong Chen, Bowen Zhou, Chen Change Loy, David A. Clifton, Kyoung Mu Lee, Luc Van Gool, Ruiming He, Ruilin Yao, Xinwei Long, Jirui Huang, Kai Tian, Sa Yang, Yihua Shao, Jin Feng, Yue Zhong, Jiakai Zhou, Cheng Tang, Tianyu Zou, Yifang Zhang, Junming Liang, Guoyou Li, Zhaoxiang Wang, Qiang Zhou, Yichen Zhao, Shili Xiong, Hyeongjin Nam, Jaerin Lee, Jaeyoung Chung, JoonKyu Park, Junghun Oh, Kanggeon Lee, Wooseok Lee, Juneyoung Ro, Turghun Osman, Can Hu, Chaoyang Liao, Cheng Chen, Chengcheng Han, Chenhao Qiu, Chong Peng, Cong Xu, Dailin Li, Feiyu Wang, Feng Gao, Guibo Zhu, Guopeng Tang, Haibo Lu, Han Fang, Han Qi, Hanxiao Wu, Haobo Cheng, Hongbo Sun, Hongyao Chen, Huayong Hu, Hui Li, Jiaheng Ma, Jiang Yu, Jianing Wang, Jie Yang, Jing He, Jinglin Zhou, Jingxuan Li, Josef Kittler, Lihao Zheng, Linnan Zhao, Mengxi Jia, Muyang Yan, Nguyen Thanh Thien, Pu Luo, Qi Li, Shien Song, Shijie Dong, Shuai Shao, Shutao Li, Taofeng Xue, Tianyang Xu, Tianyi Gao, Tingting Li, Wei Zhang, Weiyang Su, Xiaodong Dong, Xiao-Jun Wu, Xiaopeng Zhou, Xin Chen, Xin Wei, Xinyi You, Xudong Kang, Xujie Zhou, Xusheng Liu, Yanan Wang, Yanbin Huang, Yang Liu, Yang Yang, Yanglin Deng, Yashu Kang, Ye Yuan, Yi Wen, Yicen Tian, Yilin Tao, Yin Tang, Yipeng Lin, Yiqing Wang, Yiting Xi, Yongkang Yu, Yumei Li, Yuxin Qin, Yuying Chen, Yuzhe Cen, Zhaofan Zou, Zhaohong Liu, Zhehao Shen, Zhenglin Du, Zhengyang Li, Zhenni Huang, Zhenwei Shao, Zhilong Song, Zhiyong Feng, Zhiyu Wang, Zhou Yu, Ziang Li, Zihan Zhai, Zijian Zhang, Ziyang Peng, Ziyun Xiao, Zongshu Li
cs.AI

Аннотация

В данной статье представлен обзор конкурса MARS2 2025 по мультимодальным рассуждениям. Мы стремимся объединить различные подходы в области мультимодального машинного обучения и крупных языковых моделей (LLM) с помощью масштабного бенчмарка. Мы надеемся, что это позволит исследователям лучше отслеживать передовые достижения в этой динамично развивающейся области. В то же время растущее количество тестовых сред способствовало эволюции универсальных крупных языковых моделей. Поэтому в этом году MARS2 сосредоточен на реальных и специализированных сценариях, чтобы расширить области применения мультимодальных рассуждений в MLLM. Наша организационная команда выпустила два специализированных набора данных — Lens и AdsQA — в качестве тестовых наборов, которые поддерживают общие рассуждения в 12 повседневных сценариях и предметно-ориентированные рассуждения в рекламных видео соответственно. Мы оценили более 40 базовых моделей, включая как универсальные MLLM, так и специализированные модели, и открыли три конкурсных направления: визуальное закрепление в реальных сценариях (VG-RS), визуальный вопросно-ответный анализ с пространственной осведомленностью (VQA-SA) и визуальные рассуждения в креативных рекламных видео (VR-Ads). В итоге 76 команд из известных академических и промышленных учреждений зарегистрировались, и более 40 действительных решений (из 1200+) были включены в наши рейтинговые списки. Наши наборы данных, наборы кода (более 40 базовых моделей и более 15 методов участников) и рейтинги доступны на сайте мастерской MARS2 и на нашей странице GitHub https://github.com/mars2workshop/, где мы будем постоянно публиковать обновления и анонсы предстоящих мероприятий.
English
This paper reviews the MARS2 2025 Challenge on Multimodal Reasoning. We aim to bring together different approaches in multimodal machine learning and LLMs via a large benchmark. We hope it better allows researchers to follow the state-of-the-art in this very dynamic area. Meanwhile, a growing number of testbeds have boosted the evolution of general-purpose large language models. Thus, this year's MARS2 focuses on real-world and specialized scenarios to broaden the multimodal reasoning applications of MLLMs. Our organizing team released two tailored datasets Lens and AdsQA as test sets, which support general reasoning in 12 daily scenarios and domain-specific reasoning in advertisement videos, respectively. We evaluated 40+ baselines that include both generalist MLLMs and task-specific models, and opened up three competition tracks, i.e., Visual Grounding in Real-world Scenarios (VG-RS), Visual Question Answering with Spatial Awareness (VQA-SA), and Visual Reasoning in Creative Advertisement Videos (VR-Ads). Finally, 76 teams from the renowned academic and industrial institutions have registered and 40+ valid submissions (out of 1200+) have been included in our ranking lists. Our datasets, code sets (40+ baselines and 15+ participants' methods), and rankings are publicly available on the MARS2 workshop website and our GitHub organization page https://github.com/mars2workshop/, where our updates and announcements of upcoming events will be continuously provided.
PDF102September 18, 2025