RACER: Políticas de Recuperación de Fallas Guiadas por Lenguaje Rico para Aprendizaje por ImitaciónRACER: Rich Language-Guided Failure Recovery Policies for Imitation
Learning
Desarrollar políticas visuomotoras robustas y corregibles para la manipulación robótica es un desafío debido a la falta de mecanismos de auto-recuperación de fallos y a las limitaciones de instrucciones de lenguaje simples para guiar las acciones del robot. Para abordar estos problemas, proponemos un flujo de generación de datos escalable que automáticamente aumenta las demostraciones de expertos con trayectorias de recuperación de fallos y anotaciones de lenguaje detalladas para el entrenamiento. Luego introducimos Rich languAge-guided failure reCovERy (RACER), un marco supervisor-actor que combina datos de recuperación de fallos con descripciones de lenguaje detalladas para mejorar el control del robot. RACER cuenta con un modelo visión-lenguaje (VLM) que actúa como supervisor en línea, proporcionando orientación de lenguaje detallada para la corrección de errores y la ejecución de tareas, y una política visuomotora condicionada por lenguaje como actor para predecir las próximas acciones. Nuestros resultados experimentales muestran que RACER supera al estado del arte Robotic View Transformer (RVT) en RLbench en varios entornos de evaluación, incluyendo tareas estándar de horizonte largo, tareas dinámicas de cambio de objetivo y tareas no vistas de cero disparos, logrando un rendimiento superior tanto en entornos simulados como en el mundo real. Los videos y el código están disponibles en: https://rich-language-failure-recovery.github.io.