ChatPaper.aiChatPaper

StyleID : un jeu de données et une métrique conscients de la perception pour la reconnaissance d'identité faciale agnostique à la stylisation

StyleID: A Perception-Aware Dataset and Metric for Stylization-Agnostic Facial Identity Recognition

April 23, 2026
Auteurs: Kwan Yun, Changmin Lee, Ayeong Jeong, Youngseo Kim, Seungmi Lee, Junyong Noh
cs.AI

Résumé

La stylisation créative de visages vise à représenter des portraits dans divers idiomes visuels tels que dessins animés, croquis et peintures tout en conservant une identité reconnaissable. Cependant, les encodeurs d'identité actuels, généralement entraînés et calibrés sur des photographies naturelles, présentent une fragilité importante face à la stylisation. Ils interprètent souvent les changements de texture ou de palette de couleur comme une altération identitaire, ou peinent à détecter les exagérations géométriques. Cela révèle l'absence d'un cadre agnostique au style pour évaluer et superviser la cohérence identitaire across différents styles et intensités. Pour combler cette lacune, nous présentons StyleID, un jeu de données et un cadre d'évaluation conscients de la perception humaine pour l'identité faciale sous stylisation. StyleID comprend deux ensembles de données : (i) StyleBench-H, un benchmark capturant les jugements de vérification humains "identique/différent" pour des stylisations basées sur la diffusion et le *flow matching* à plusieurs intensités de style, et (ii) StyleBench-S, un ensemble de supervision dérivé de courbes psychométriques de force de reconnaissance obtenues via des expériences contrôlées à choix forcé à deux alternatives (2AFC). En exploitant StyleBench-S, nous affinons des encodeurs sémantiques existants pour aligner leurs classements de similarité avec la perception humaine across les styles et les intensités. Les expériences démontrent que nos modèles calibrés obtiennent une corrélation significativement plus élevée avec les jugements humains et une robustesse accrue pour des portraits artistiques dessinés hors domaine. Tous nos jeux de données, code et modèles pré-entraînés sont disponibles publiquement à l'adresse https://kwanyun.github.io/StyleID_page/.
English
Creative face stylization aims to render portraits in diverse visual idioms such as cartoons, sketches, and paintings while retaining recognizable identity. However, current identity encoders, which are typically trained and calibrated on natural photographs, exhibit severe brittleness under stylization. They often mistake changes in texture or color palette for identity drift or fail to detect geometric exaggerations. This reveals the lack of a style-agnostic framework to evaluate and supervise identity consistency across varying styles and strengths. To address this gap, we introduce StyleID, a human perception-aware dataset and evaluation framework for facial identity under stylization. StyleID comprises two datasets: (i) StyleBench-H, a benchmark that captures human same-different verification judgments across diffusion- and flow-matching-based stylization at multiple style strengths, and (ii) StyleBench-S, a supervision set derived from psychometric recognition-strength curves obtained through controlled two-alternative forced-choice (2AFC) experiments. Leveraging StyleBench-S, we fine-tune existing semantic encoders to align their similarity orderings with human perception across styles and strengths. Experiments demonstrate that our calibrated models yield significantly higher correlation with human judgments and enhanced robustness for out-of-domain, artist drawn portraits. All of our datasets, code, and pretrained models are publicly available at https://kwanyun.github.io/StyleID_page/
PDF182April 25, 2026