StyleID: Een perceptiebewuste dataset en metriek voor stylisatie-agnostische herkenning van gezichtsidentiteit
StyleID: A Perception-Aware Dataset and Metric for Stylization-Agnostic Facial Identity Recognition
April 23, 2026
Auteurs: Kwan Yun, Changmin Lee, Ayeong Jeong, Youngseo Kim, Seungmi Lee, Junyong Noh
cs.AI
Samenvatting
Creatieve gezichtsstilering heeft als doel portretten weer te geven in diverse visuele idioomen zoals cartoons, schetsen en schilderijen, waarbij de herkenbare identiteit behouden blijft. Huidige identiteitsencoders, die doorgaans zijn getraind en gekalibreerd op natuurlijke foto's, vertonen echter ernstige broosheid onder stilering. Ze interpreteren veranderingen in textuur of kleurenpalet vaak ten onrechte als identiteitsvervorming of slagen er niet in geometrische overdrijvingen te detecteren. Dit onthult het ontbreken van een stijlonafhankelijk raamwerk om identiteitsconsistentie over verschillende stijlen en intensiteiten te evalueren en te bewaken. Om deze leemte op te vullen, introduceren we StyleID, een dataset en evaluatieraamwerk voor gezichtsidentiteit onder stilering die afgestemd is op menselijke perceptie. StyleID omvat twee datasets: (i) StyleBench-H, een benchmark die menselijke oordelen overzelfde-verschillende verificatie vastlegt bij op diffusie- en flow-matching gebaseerde stilering op meerdere stijlsterktes, en (ii) StyleBench-S, een supervisieset afgeleid van psychometrische herkenningssterkte-curven verkregen via gecontroleerde two-alternative forced-choice (2AFC) experimenten. Met behulp van StyleBench-S fine-tunen we bestaande semantische encoders om hun gelijkenisordeningen af te stemmen op de menselijke perceptie over stijlen en sterktes heen. Experimenten tonen aan dat onze gekalibreerde modellen een significant hogere correlatie met menselijke oordelen en een verbeterde robuustheid opleveren voor out-of-domain, door kunstenaars getekende portretten. Al onze datasets, code en vooraf getrainde modellen zijn openbaar beschikbaar op https://kwanyun.github.io/StyleID_page/.
English
Creative face stylization aims to render portraits in diverse visual idioms such as cartoons, sketches, and paintings while retaining recognizable identity. However, current identity encoders, which are typically trained and calibrated on natural photographs, exhibit severe brittleness under stylization. They often mistake changes in texture or color palette for identity drift or fail to detect geometric exaggerations. This reveals the lack of a style-agnostic framework to evaluate and supervise identity consistency across varying styles and strengths. To address this gap, we introduce StyleID, a human perception-aware dataset and evaluation framework for facial identity under stylization. StyleID comprises two datasets: (i) StyleBench-H, a benchmark that captures human same-different verification judgments across diffusion- and flow-matching-based stylization at multiple style strengths, and (ii) StyleBench-S, a supervision set derived from psychometric recognition-strength curves obtained through controlled two-alternative forced-choice (2AFC) experiments. Leveraging StyleBench-S, we fine-tune existing semantic encoders to align their similarity orderings with human perception across styles and strengths. Experiments demonstrate that our calibrated models yield significantly higher correlation with human judgments and enhanced robustness for out-of-domain, artist drawn portraits. All of our datasets, code, and pretrained models are publicly available at https://kwanyun.github.io/StyleID_page/