NTIRE 2026: Métodos e Resultados do Desafio de Previsão de Saliência em Vídeo
NTIRE 2026 Challenge on Video Saliency Prediction: Methods and Results
April 16, 2026
Autores: Andrey Moskalenko, Alexey Bryncev, Ivan Kosmynin, Kira Shilovskaya, Mikhail Erofeev, Dmitry Vatolin, Radu Timofte, Kun Wang, Yupeng Hu, Zhiran Li, Hao Liu, Qianlong Xiang, Liqiang Nie, Konstantinos Chaldaiopoulos, Niki Efthymiou, Athanasia Zlatintsi, Panagiotis Filntisis, Katerina Pastra, Petros Maragos, Li Yang, Gen Zhan, Yiting Liao, Yabin Zhang, Yuxin Liu, Xu Wu, Yunheng Zheng, Linze Li, Kun He, Cong Wu, Xuefeng Zhu, Tianyang Xu, Xiaojun Wu, Wenzhuo Zhao, Keren Fu, Gongyang Li, Shixiang Shi, Jianlin Chen, Haibin Ling, Yaoxin Jiang, Guoyi Xu, Jiajia Liu, Yaokun Shi, Jiachen Tu
cs.AI
Resumo
Este artigo apresenta uma visão geral do Desafio NTIRE 2026 sobre Predição de Salitência em Vídeo. O objetivo dos participantes do desafio foi desenvolver métodos automáticos de predição de mapas de saliência para as sequências de vídeo fornecidas. Um novo conjunto de dados com 2.000 vídeos diversos e licença aberta foi preparado para este desafio. As fixações e os mapas de saliência correspondentes foram coletados por meio de rastreamento de mouse *crowdsourced* e contêm dados de visualização de mais de 5.000 avaliadores. A avaliação foi realizada em um subconjunto de 800 vídeos de teste utilizando métricas de qualidade geralmente aceitas. O desafio atraiu a participação de mais de 20 equipes com submissões, e 7 equipes passaram pela fase final, que incluiu revisão de código. Todos os dados utilizados neste desafio estão disponíveis publicamente em https://github.com/msu-video-group/NTIRE26_Saliency_Prediction.
English
This paper presents an overview of the NTIRE 2026 Challenge on Video Saliency Prediction. The goal of the challenge participants was to develop automatic saliency map prediction methods for the provided video sequences. The novel dataset of 2,000 diverse videos with an open license was prepared for this challenge. The fixations and corresponding saliency maps were collected using crowdsourced mouse tracking and contain viewing data from over 5,000 assessors. Evaluation was performed on a subset of 800 test videos using generally accepted quality metrics. The challenge attracted over 20 teams making submissions, and 7 teams passed the final phase with code review. All data used in this challenge is made publicly available - https://github.com/msu-video-group/NTIRE26_Saliency_Prediction.