ChatPaper.aiChatPaper

StyleID: Un Conjunto de Datos y Métrica Conscientes de la Percepción para el Reconocimiento de Identidad Facial Independiente de la Estilización

StyleID: A Perception-Aware Dataset and Metric for Stylization-Agnostic Facial Identity Recognition

April 23, 2026
Autores: Kwan Yun, Changmin Lee, Ayeong Jeong, Youngseo Kim, Seungmi Lee, Junyong Noh
cs.AI

Resumen

La estilización facial creativa busca representar retratos en diversos estilos visuales como caricaturas, bocetos y pinturas, manteniendo una identidad reconocible. Sin embargo, los codificadores de identidad actuales, que normalmente se entrenan y calibran con fotografías naturales, muestran una fragilidad severa bajo estilización. A menudo confunden cambios en la textura o la paleta de colores con variaciones de identidad, o no logran detectar exageraciones geométricas. Esto revela la falta de un marco de trabajo independiente del estilo para evaluar y supervisar la consistencia de la identidad en diferentes estilos y niveles de intensidad. Para abordar esta carencia, presentamos StyleID, un conjunto de datos y marco de evaluación consciente de la percepción humana para la identidad facial bajo estilización. StyleID comprende dos conjuntos de datos: (i) StyleBench-H, un benchmark que captura juicios humanos de verificación de similitud/diferencia en estilizaciones basadas en difusión y emparejamiento de flujos en múltiples intensidades de estilo, y (ii) StyleBench-S, un conjunto de supervisión derivado de curvas psicométricas de fuerza de reconocimiento obtenidas mediante experimentos controlados de elección forzada entre dos alternativas (2AFC). Utilizando StyleBench-S, ajustamos codificadores semánticos existentes para alinear sus ordenamientos de similitud con la percepción humana a través de estilos e intensidades. Los experimentos demuestran que nuestros modelos calibrados alcanzan una correlación significativamente mayor con los juicios humanos y una robustez mejorada para retratos dibujados por artistas fuera del dominio de entrenamiento. Todos nuestros conjuntos de datos, código y modelos preentrenados están disponibles públicamente en https://kwanyun.github.io/StyleID_page/.
English
Creative face stylization aims to render portraits in diverse visual idioms such as cartoons, sketches, and paintings while retaining recognizable identity. However, current identity encoders, which are typically trained and calibrated on natural photographs, exhibit severe brittleness under stylization. They often mistake changes in texture or color palette for identity drift or fail to detect geometric exaggerations. This reveals the lack of a style-agnostic framework to evaluate and supervise identity consistency across varying styles and strengths. To address this gap, we introduce StyleID, a human perception-aware dataset and evaluation framework for facial identity under stylization. StyleID comprises two datasets: (i) StyleBench-H, a benchmark that captures human same-different verification judgments across diffusion- and flow-matching-based stylization at multiple style strengths, and (ii) StyleBench-S, a supervision set derived from psychometric recognition-strength curves obtained through controlled two-alternative forced-choice (2AFC) experiments. Leveraging StyleBench-S, we fine-tune existing semantic encoders to align their similarity orderings with human perception across styles and strengths. Experiments demonstrate that our calibrated models yield significantly higher correlation with human judgments and enhanced robustness for out-of-domain, artist drawn portraits. All of our datasets, code, and pretrained models are publicly available at https://kwanyun.github.io/StyleID_page/
PDF182April 25, 2026