DYMO-Hair: Modelagem Generalizável de Dinâmica Volumétrica para Manipulação de Cabelo por Robôs
DYMO-Hair: Generalizable Volumetric Dynamics Modeling for Robot Hair Manipulation
October 7, 2025
Autores: Chengyang Zhao, Uksang Yoo, Arkadeep Narayan Chaudhury, Giljoo Nam, Jonathan Francis, Jeffrey Ichnowski, Jean Oh
cs.AI
Resumo
O cuidado com os cabelos é uma atividade diária essencial, mas permanece inacessível para indivíduos com mobilidade limitada e desafiadora para sistemas robóticos autônomos devido à estrutura física refinada e à dinâmica complexa dos fios. Neste trabalho, apresentamos o DYMO-Hair, um sistema robótico de cuidado capilar baseado em modelos. Introduzimos um novo paradigma de aprendizado de dinâmica adequado para quantidades volumétricas, como os cabelos, que se baseia em um mecanismo de edição de estado latente condicionado por ações, acoplado a um espaço latente 3D compacto de diversos penteados para melhorar a generalização. Esse espaço latente é pré-treinado em escala usando um novo simulador de física capilar, permitindo a generalização para penteados nunca vistos anteriormente. Utilizando o modelo de dinâmica com um planejador de Integral de Trajetória Preditiva por Modelo (MPPI), o DYMO-Hair é capaz de realizar estilização capilar visual condicionada por objetivos. Experimentos em simulação demonstram que o modelo de dinâmica do DYMO-Hair supera as abordagens de referência na captura de deformações locais para diversos penteados não vistos. O DYMO-Hair também supera as abordagens de referência em tarefas de estilização capilar em malha fechada para penteados não vistos, com uma média de 22% menos erro geométrico final e 42% mais taxa de sucesso do que o sistema estado da arte. Experimentos no mundo real exibem a transferibilidade zero-shot do nosso sistema para perucas, alcançando sucesso consistente em penteados desafiadores não vistos onde o sistema estado da arte falha. Juntos, esses resultados estabelecem uma base para o cuidado capilar robótico baseado em modelos, avançando em direção a uma estilização capilar robótica mais generalizável, flexível e acessível em ambientes físicos não restritos. Mais detalhes estão disponíveis em nossa página do projeto: https://chengyzhao.github.io/DYMOHair-web/.
English
Hair care is an essential daily activity, yet it remains inaccessible to
individuals with limited mobility and challenging for autonomous robot systems
due to the fine-grained physical structure and complex dynamics of hair. In
this work, we present DYMO-Hair, a model-based robot hair care system. We
introduce a novel dynamics learning paradigm that is suited for volumetric
quantities such as hair, relying on an action-conditioned latent state editing
mechanism, coupled with a compact 3D latent space of diverse hairstyles to
improve generalizability. This latent space is pre-trained at scale using a
novel hair physics simulator, enabling generalization across previously unseen
hairstyles. Using the dynamics model with a Model Predictive Path Integral
(MPPI) planner, DYMO-Hair is able to perform visual goal-conditioned hair
styling. Experiments in simulation demonstrate that DYMO-Hair's dynamics model
outperforms baselines on capturing local deformation for diverse, unseen
hairstyles. DYMO-Hair further outperforms baselines in closed-loop hair styling
tasks on unseen hairstyles, with an average of 22% lower final geometric error
and 42% higher success rate than the state-of-the-art system. Real-world
experiments exhibit zero-shot transferability of our system to wigs, achieving
consistent success on challenging unseen hairstyles where the state-of-the-art
system fails. Together, these results introduce a foundation for model-based
robot hair care, advancing toward more generalizable, flexible, and accessible
robot hair styling in unconstrained physical environments. More details are
available on our project page: https://chengyzhao.github.io/DYMOHair-web/.