NTIRE 2026 Uitdaging voor Voorspelling van Videosalientie: Methoden en Resultaten
NTIRE 2026 Challenge on Video Saliency Prediction: Methods and Results
April 16, 2026
Auteurs: Andrey Moskalenko, Alexey Bryncev, Ivan Kosmynin, Kira Shilovskaya, Mikhail Erofeev, Dmitry Vatolin, Radu Timofte, Kun Wang, Yupeng Hu, Zhiran Li, Hao Liu, Qianlong Xiang, Liqiang Nie, Konstantinos Chaldaiopoulos, Niki Efthymiou, Athanasia Zlatintsi, Panagiotis Filntisis, Katerina Pastra, Petros Maragos, Li Yang, Gen Zhan, Yiting Liao, Yabin Zhang, Yuxin Liu, Xu Wu, Yunheng Zheng, Linze Li, Kun He, Cong Wu, Xuefeng Zhu, Tianyang Xu, Xiaojun Wu, Wenzhuo Zhao, Keren Fu, Gongyang Li, Shixiang Shi, Jianlin Chen, Haibin Ling, Yaoxin Jiang, Guoyi Xu, Jiajia Liu, Yaokun Shi, Jiachen Tu
cs.AI
Samenvatting
Dit artikel biedt een overzicht van de NTIRE 2026 Challenge voor Video Saliency Prediction. Het doel voor de deelnemers aan de challenge was het ontwikkelen van automatische methoden voor het voorspellen van saliency maps voor de verstrekte videosequenties. Voor deze challenge werd een nieuwe dataset samengesteld met 2.000 uiteenlopende video's onder een open licentie. De fixaties en bijbehorende saliency maps werden verzameld door middel van crowdsourced muistracking en bevatten kijkgegevens van meer dan 5.000 beoordelaars. De evaluatie werd uitgevoerd op een subset van 800 testvideo's met behulp van algemeen geaccepteerde kwaliteitsmetrieken. De challenge trok meer dan 20 teams die inzendingen deden, waarvan 7 teams de finale fase met code-review passeerden. Alle data die in deze challenge wordt gebruikt, is publiekelijk beschikbaar gesteld - https://github.com/msu-video-group/NTIRE26_Saliency_Prediction.
English
This paper presents an overview of the NTIRE 2026 Challenge on Video Saliency Prediction. The goal of the challenge participants was to develop automatic saliency map prediction methods for the provided video sequences. The novel dataset of 2,000 diverse videos with an open license was prepared for this challenge. The fixations and corresponding saliency maps were collected using crowdsourced mouse tracking and contain viewing data from over 5,000 assessors. Evaluation was performed on a subset of 800 test videos using generally accepted quality metrics. The challenge attracted over 20 teams making submissions, and 7 teams passed the final phase with code review. All data used in this challenge is made publicly available - https://github.com/msu-video-group/NTIRE26_Saliency_Prediction.