DYMO-Hair : Modélisation volumétrique généralisable de la dynamique pour la manipulation robotique des cheveux
DYMO-Hair: Generalizable Volumetric Dynamics Modeling for Robot Hair Manipulation
October 7, 2025
papers.authors: Chengyang Zhao, Uksang Yoo, Arkadeep Narayan Chaudhury, Giljoo Nam, Jonathan Francis, Jeffrey Ichnowski, Jean Oh
cs.AI
papers.abstract
Les soins capillaires constituent une activité quotidienne essentielle, mais ils restent inaccessibles aux personnes à mobilité réduite et posent des défis aux systèmes robotiques autonomes en raison de la structure physique fine et des dynamiques complexes des cheveux. Dans ce travail, nous présentons DYMO-Hair, un système robotique de soins capillaires basé sur un modèle. Nous introduisons un nouveau paradigme d'apprentissage des dynamiques adapté aux quantités volumétriques telles que les cheveux, reposant sur un mécanisme d'édition d'état latent conditionné par l'action, couplé à un espace latent 3D compact de coiffures variées pour améliorer la généralisation. Cet espace latent est pré-entraîné à grande échelle à l'aide d'un nouveau simulateur de physique capillaire, permettant une généralisation à des coiffures jamais vues auparavant. En utilisant le modèle de dynamique avec un planificateur Model Predictive Path Integral (MPPI), DYMO-Hair est capable de réaliser des coiffures visuelles conditionnées par un objectif. Les expériences en simulation démontrent que le modèle de dynamique de DYMO-Hair surpasse les méthodes de référence dans la capture des déformations locales pour des coiffures variées et inédites. DYMO-Hair surpasse également les méthodes de référence dans des tâches de coiffure en boucle fermée sur des coiffures inédites, avec une erreur géométrique finale moyenne inférieure de 22 % et un taux de réussite supérieur de 42 % par rapport au système de pointe. Les expériences en monde réel montrent une transférabilité en zero-shot de notre système à des perruques, obtenant des succès constants sur des coiffures inédites et difficiles où le système de pointe échoue. Ensemble, ces résultats posent les bases d'un système robotique de soins capillaires basé sur un modèle, progressant vers une coiffure robotique plus généralisable, flexible et accessible dans des environnements physiques non contraints. Plus de détails sont disponibles sur notre page de projet : https://chengyzhao.github.io/DYMOHair-web/.
English
Hair care is an essential daily activity, yet it remains inaccessible to
individuals with limited mobility and challenging for autonomous robot systems
due to the fine-grained physical structure and complex dynamics of hair. In
this work, we present DYMO-Hair, a model-based robot hair care system. We
introduce a novel dynamics learning paradigm that is suited for volumetric
quantities such as hair, relying on an action-conditioned latent state editing
mechanism, coupled with a compact 3D latent space of diverse hairstyles to
improve generalizability. This latent space is pre-trained at scale using a
novel hair physics simulator, enabling generalization across previously unseen
hairstyles. Using the dynamics model with a Model Predictive Path Integral
(MPPI) planner, DYMO-Hair is able to perform visual goal-conditioned hair
styling. Experiments in simulation demonstrate that DYMO-Hair's dynamics model
outperforms baselines on capturing local deformation for diverse, unseen
hairstyles. DYMO-Hair further outperforms baselines in closed-loop hair styling
tasks on unseen hairstyles, with an average of 22% lower final geometric error
and 42% higher success rate than the state-of-the-art system. Real-world
experiments exhibit zero-shot transferability of our system to wigs, achieving
consistent success on challenging unseen hairstyles where the state-of-the-art
system fails. Together, these results introduce a foundation for model-based
robot hair care, advancing toward more generalizable, flexible, and accessible
robot hair styling in unconstrained physical environments. More details are
available on our project page: https://chengyzhao.github.io/DYMOHair-web/.