ChatPaper.aiChatPaper

DYMO-Hair: Modelagem Generalizável de Dinâmica Volumétrica para Manipulação de Cabelo por Robôs

DYMO-Hair: Generalizable Volumetric Dynamics Modeling for Robot Hair Manipulation

October 7, 2025
Autores: Chengyang Zhao, Uksang Yoo, Arkadeep Narayan Chaudhury, Giljoo Nam, Jonathan Francis, Jeffrey Ichnowski, Jean Oh
cs.AI

Resumo

O cuidado com os cabelos é uma atividade diária essencial, mas permanece inacessível para indivíduos com mobilidade limitada e desafiadora para sistemas robóticos autônomos devido à estrutura física refinada e à dinâmica complexa dos fios. Neste trabalho, apresentamos o DYMO-Hair, um sistema robótico de cuidado capilar baseado em modelos. Introduzimos um novo paradigma de aprendizado de dinâmica adequado para quantidades volumétricas, como os cabelos, que se baseia em um mecanismo de edição de estado latente condicionado por ações, acoplado a um espaço latente 3D compacto de diversos penteados para melhorar a generalização. Esse espaço latente é pré-treinado em escala usando um novo simulador de física capilar, permitindo a generalização para penteados nunca vistos anteriormente. Utilizando o modelo de dinâmica com um planejador de Integral de Trajetória Preditiva por Modelo (MPPI), o DYMO-Hair é capaz de realizar estilização capilar visual condicionada por objetivos. Experimentos em simulação demonstram que o modelo de dinâmica do DYMO-Hair supera as abordagens de referência na captura de deformações locais para diversos penteados não vistos. O DYMO-Hair também supera as abordagens de referência em tarefas de estilização capilar em malha fechada para penteados não vistos, com uma média de 22% menos erro geométrico final e 42% mais taxa de sucesso do que o sistema estado da arte. Experimentos no mundo real exibem a transferibilidade zero-shot do nosso sistema para perucas, alcançando sucesso consistente em penteados desafiadores não vistos onde o sistema estado da arte falha. Juntos, esses resultados estabelecem uma base para o cuidado capilar robótico baseado em modelos, avançando em direção a uma estilização capilar robótica mais generalizável, flexível e acessível em ambientes físicos não restritos. Mais detalhes estão disponíveis em nossa página do projeto: https://chengyzhao.github.io/DYMOHair-web/.
English
Hair care is an essential daily activity, yet it remains inaccessible to individuals with limited mobility and challenging for autonomous robot systems due to the fine-grained physical structure and complex dynamics of hair. In this work, we present DYMO-Hair, a model-based robot hair care system. We introduce a novel dynamics learning paradigm that is suited for volumetric quantities such as hair, relying on an action-conditioned latent state editing mechanism, coupled with a compact 3D latent space of diverse hairstyles to improve generalizability. This latent space is pre-trained at scale using a novel hair physics simulator, enabling generalization across previously unseen hairstyles. Using the dynamics model with a Model Predictive Path Integral (MPPI) planner, DYMO-Hair is able to perform visual goal-conditioned hair styling. Experiments in simulation demonstrate that DYMO-Hair's dynamics model outperforms baselines on capturing local deformation for diverse, unseen hairstyles. DYMO-Hair further outperforms baselines in closed-loop hair styling tasks on unseen hairstyles, with an average of 22% lower final geometric error and 42% higher success rate than the state-of-the-art system. Real-world experiments exhibit zero-shot transferability of our system to wigs, achieving consistent success on challenging unseen hairstyles where the state-of-the-art system fails. Together, these results introduce a foundation for model-based robot hair care, advancing toward more generalizable, flexible, and accessible robot hair styling in unconstrained physical environments. More details are available on our project page: https://chengyzhao.github.io/DYMOHair-web/.
PDF02October 9, 2025