ChatPaper.aiChatPaper

StyleMM: Modelo Morfológico 3D Estilizado de Rostros mediante Traducción de Imágenes Alineadas Guiada por Texto

StyleMM: Stylized 3D Morphable Face Model via Text-Driven Aligned Image Translation

August 15, 2025
Autores: Seungmi Lee, Kwan Yun, Junyong Noh
cs.AI

Resumen

Presentamos StyleMM, un marco novedoso que puede construir un Modelo Morfológico 3D (3DMM) estilizado basado en descripciones textuales definidas por el usuario que especifican un estilo objetivo. Partiendo de una red de deformación de mallas preentrenada y un generador de texturas para caras humanas realistas basadas en 3DMM originales, nuestro enfoque ajusta estos modelos utilizando imágenes faciales estilizadas generadas mediante traducción de imagen a imagen (i2i) guiada por texto con un modelo de difusión, las cuales sirven como objetivos de estilización para la malla renderizada. Para evitar cambios no deseados en la identidad, alineación facial o expresiones durante la traducción i2i, introducimos un método de estilización que preserva explícitamente los atributos faciales de la imagen fuente. Al mantener estos atributos críticos durante la estilización de la imagen, el enfoque propuesto asegura una transferencia de estilo 3D consistente en el espacio de parámetros del 3DMM mediante entrenamiento basado en imágenes. Una vez entrenado, StyleMM permite la generación en avance de mallas faciales estilizadas con control explícito sobre los parámetros de forma, expresión y textura, produciendo mallas con conectividad de vértices y animabilidad consistentes. Evaluaciones cuantitativas y cualitativas demuestran que nuestro enfoque supera a los métodos más avanzados en términos de diversidad facial a nivel de identidad y capacidad de estilización. El código y los videos están disponibles en [kwanyun.github.io/stylemm_page](kwanyun.github.io/stylemm_page).
English
We introduce StyleMM, a novel framework that can construct a stylized 3D Morphable Model (3DMM) based on user-defined text descriptions specifying a target style. Building upon a pre-trained mesh deformation network and a texture generator for original 3DMM-based realistic human faces, our approach fine-tunes these models using stylized facial images generated via text-guided image-to-image (i2i) translation with a diffusion model, which serve as stylization targets for the rendered mesh. To prevent undesired changes in identity, facial alignment, or expressions during i2i translation, we introduce a stylization method that explicitly preserves the facial attributes of the source image. By maintaining these critical attributes during image stylization, the proposed approach ensures consistent 3D style transfer across the 3DMM parameter space through image-based training. Once trained, StyleMM enables feed-forward generation of stylized face meshes with explicit control over shape, expression, and texture parameters, producing meshes with consistent vertex connectivity and animatability. Quantitative and qualitative evaluations demonstrate that our approach outperforms state-of-the-art methods in terms of identity-level facial diversity and stylization capability. The code and videos are available at [kwanyun.github.io/stylemm_page](kwanyun.github.io/stylemm_page).
PDF82August 18, 2025