ChatPaper.aiChatPaper

ATTN-FIQA : Évaluation interprétable de la qualité des images faciales par mécanisme d'attention avec les Vision Transformers

ATTN-FIQA: Interpretable Attention-based Face Image Quality Assessment with Vision Transformers

April 21, 2026
Auteurs: Guray Ozgur, Tahar Chettaoui, Eduarda Caldeira, Jan Niklas Kolf, Marco Huber, Andrea Atzori, Naser Damer, Fadi Boutros
cs.AI

Résumé

L'évaluation de la qualité des images faciales (FIQA) vise à estimer l'utilité des échantillons de visage pour la reconnaissance et est essentielle pour des systèmes de reconnaissance faciale (FR) fiables. Les approches existantes nécessitent des procédures coûteuses en calcul, telles que de multiples passes avant, la rétropropagation ou un entraînement supplémentaire, et seuls des travaux récents se sont concentrés sur l'utilisation de Vision Transformers. Des études récentes ont souligné que ces architectures fonctionnent intrinsèquement comme des apprenants de saillance, leurs motifs d'attention encodant naturellement l'importance spatiale. Ce travail propose ATTN-FIQA, une nouvelle approche sans entraînement qui étudie si les scores d'attention pré-softmax issus de modèles de reconnaissance faciale pré-entraînés basés sur Vision Transformer peuvent servir d'indicateurs de qualité. Nous émettons l'hypothèse que les magnitudes d'attention encodent intrinsèquement la qualité : les images de haute qualité avec des traits faciaux discriminants permettent des alignements requête-clé solides produisant des motifs d'attention focalisés et de forte magnitude, tandis que les images dégradées génèrent des motifs diffus et de faible magnitude. ATTN-FIQA extrait les matrices d'attention pré-softmax du bloc transformeur final, agrège l'information d'attention multi-têtes sur tous les patches, et calcule des scores de qualité au niveau de l'image par une simple moyenne, ne nécessitant qu'une seule passe avant dans des modèles pré-entraînés sans modification architecturale, rétropropagation ou entraînement supplémentaire. Grâce à une évaluation exhaustive sur huit bases de données de référence et quatre modèles de FR, ce travail démontre que les scores de qualité basés sur l'attention corrèlent efficacement avec la qualité des images faciales et offrent une interprétabilité spatiale, révélant quelles régions faciales contribuent le plus à la détermination de la qualité.
English
Face Image Quality Assessment (FIQA) aims to assess the recognition utility of face samples and is essential for reliable face recognition (FR) systems. Existing approaches require computationally expensive procedures such as multiple forward passes, backpropagation, or additional training, and only recent work has focused on the use of Vision Transformers. Recent studies highlighted that these architectures inherently function as saliency learners with attention patterns naturally encoding spatial importance. This work proposes ATTN-FIQA, a novel training-free approach that investigates whether pre-softmax attention scores from pre-trained Vision Transformer-based face recognition models can serve as quality indicators. We hypothesize that attention magnitudes intrinsically encode quality: high-quality images with discriminative facial features enable strong query-key alignments producing focused, high-magnitude attention patterns, while degraded images generate diffuse, low-magnitude patterns. ATTN-FIQA extracts pre-softmax attention matrices from the final transformer block, aggregate multi-head attention information across all patches, and compute image-level quality scores through simple averaging, requiring only a single forward pass through pre-trained models without architectural modifications, backpropagation, or additional training. Through comprehensive evaluation across eight benchmark datasets and four FR models, this work demonstrates that attention-based quality scores effectively correlate with face image quality and provide spatial interpretability, revealing which facial regions contribute most to quality determination.
PDF21April 29, 2026