NTIRE 2026 Challenge sulla Predizione della Salienza Video: Metodi e Risultati
NTIRE 2026 Challenge on Video Saliency Prediction: Methods and Results
April 16, 2026
Autori: Andrey Moskalenko, Alexey Bryncev, Ivan Kosmynin, Kira Shilovskaya, Mikhail Erofeev, Dmitry Vatolin, Radu Timofte, Kun Wang, Yupeng Hu, Zhiran Li, Hao Liu, Qianlong Xiang, Liqiang Nie, Konstantinos Chaldaiopoulos, Niki Efthymiou, Athanasia Zlatintsi, Panagiotis Filntisis, Katerina Pastra, Petros Maragos, Li Yang, Gen Zhan, Yiting Liao, Yabin Zhang, Yuxin Liu, Xu Wu, Yunheng Zheng, Linze Li, Kun He, Cong Wu, Xuefeng Zhu, Tianyang Xu, Xiaojun Wu, Wenzhuo Zhao, Keren Fu, Gongyang Li, Shixiang Shi, Jianlin Chen, Haibin Ling, Yaoxin Jiang, Guoyi Xu, Jiajia Liu, Yaokun Shi, Jiachen Tu
cs.AI
Abstract
Questo articolo fornisce una panoramfica della NTIRE 2026 Challenge sulla Predizione della Salienza Video. L'obiettivo dei partecipanti alla challenge era sviluppare metodi automatici per la predizione di mappe di salienza per le sequenze video fornite. Per questa competizione è stato preparato un nuovo dataset, rilasciato con licenza aperta, comprendente 2.000 video diversi. Le fissazioni oculari e le corrispondenti mappe di salienza sono state raccolte mediante tracciamento del mouse crowdsourcing e contengono dati di visualizzazione provenienti da oltre 5.000 valutatori. La valutazione è stata condotta su un sottoinsieme di 800 video di test utilizzando metriche di qualità generalmente accettate. La challenge ha attratto oltre 20 team che hanno presentato contributi, e 7 team hanno superato la fase finale, che includeva una revisione del codice. Tutti i dati utilizzati in questa challenge sono resi pubblicamente disponibili all'indirizzo: https://github.com/msu-video-group/NTIRE26_Saliency_Prediction.
English
This paper presents an overview of the NTIRE 2026 Challenge on Video Saliency Prediction. The goal of the challenge participants was to develop automatic saliency map prediction methods for the provided video sequences. The novel dataset of 2,000 diverse videos with an open license was prepared for this challenge. The fixations and corresponding saliency maps were collected using crowdsourced mouse tracking and contain viewing data from over 5,000 assessors. Evaluation was performed on a subset of 800 test videos using generally accepted quality metrics. The challenge attracted over 20 teams making submissions, and 7 teams passed the final phase with code review. All data used in this challenge is made publicly available - https://github.com/msu-video-group/NTIRE26_Saliency_Prediction.