ChatPaper.aiChatPaper

Aprendizaje de Políticas de Levantamiento para Robots Humanoides del Mundo Real

Learning Getting-Up Policies for Real-World Humanoid Robots

February 17, 2025
Autores: Xialin He, Runpei Dong, Zixuan Chen, Saurabh Gupta
cs.AI

Resumen

La recuperación automática de caídas es un requisito crucial antes de que los robots humanoides puedan ser desplegados de manera confiable. El diseño manual de controladores para levantarse es difícil debido a las diversas configuraciones en las que un humanoide puede terminar después de una caída y a los terrenos desafiantes en los que se espera que operen los robots humanoides. Este artículo desarrolla un marco de aprendizaje para producir controladores que permitan a los robots humanoides levantarse desde diversas configuraciones en terrenos variados. A diferencia de aplicaciones exitosas anteriores de aprendizaje de locomoción humana, la tarea de levantarse implica patrones de contacto complejos, lo que requiere modelar con precisión la geometría de colisión y recompensas más dispersas. Abordamos estos desafíos a través de un enfoque de dos fases que sigue un plan de estudios. La primera etapa se centra en descubrir una buena trayectoria para levantarse con mínimas restricciones en suavidad o límites de velocidad/torque. La segunda etapa refina luego los movimientos descubiertos en movimientos desplegables (es decir, suaves y lentos) que son robustos ante variaciones en la configuración inicial y los terrenos. Encontramos que estas innovaciones permiten a un robot humanoide G1 del mundo real levantarse de dos situaciones principales que consideramos: a) acostado boca arriba y b) acostado boca abajo, ambos probados en superficies planas, deformables, resbaladizas y pendientes (por ejemplo, césped inclinado y campo nevado). Hasta donde sabemos, esta es la primera demostración exitosa de políticas de levantamiento aprendidas para robots humanoides de tamaño humano en el mundo real. Página del proyecto: https://humanoid-getup.github.io/
English
Automatic fall recovery is a crucial prerequisite before humanoid robots can be reliably deployed. Hand-designing controllers for getting up is difficult because of the varied configurations a humanoid can end up in after a fall and the challenging terrains humanoid robots are expected to operate on. This paper develops a learning framework to produce controllers that enable humanoid robots to get up from varying configurations on varying terrains. Unlike previous successful applications of humanoid locomotion learning, the getting-up task involves complex contact patterns, which necessitates accurately modeling the collision geometry and sparser rewards. We address these challenges through a two-phase approach that follows a curriculum. The first stage focuses on discovering a good getting-up trajectory under minimal constraints on smoothness or speed / torque limits. The second stage then refines the discovered motions into deployable (i.e. smooth and slow) motions that are robust to variations in initial configuration and terrains. We find these innovations enable a real-world G1 humanoid robot to get up from two main situations that we considered: a) lying face up and b) lying face down, both tested on flat, deformable, slippery surfaces and slopes (e.g., sloppy grass and snowfield). To the best of our knowledge, this is the first successful demonstration of learned getting-up policies for human-sized humanoid robots in the real world. Project page: https://humanoid-getup.github.io/

Summary

AI-Generated Summary

PDF423February 18, 2025