RACER : Politiques de récupération d'échec guidées par un langage riche pour l'apprentissage par imitationRACER: Rich Language-Guided Failure Recovery Policies for Imitation
Learning
Le développement de politiques visuomotrices robustes et corrigibles pour la manipulation robotique est un défi en raison du manque de mécanismes d'auto-récupération des échecs et des limitations des instructions simples en langage pour guider les actions du robot. Pour résoudre ces problèmes, nous proposons un pipeline de génération de données évolutif qui augmente automatiquement les démonstrations d'experts avec des trajectoires de récupération d'échec et des annotations de langage détaillées pour l'entraînement. Nous introduisons ensuite RACER (Rich languAge-guided failure reCovERy), un cadre superviseur-acteur qui combine les données de récupération d'échec avec des descriptions de langage riches pour améliorer le contrôle du robot. RACER comprend un modèle vision-langage (VLM) agissant comme superviseur en ligne, fournissant des orientations linguistiques détaillées pour la correction des erreurs et l'exécution des tâches, ainsi qu'une politique visuomotrice conditionnée par le langage en tant qu'acteur pour prédire les prochaines actions. Nos résultats expérimentaux montrent que RACER surpasse le Robotic View Transformer (RVT) de pointe sur RLbench dans divers contextes d'évaluation, y compris des tâches standard à longue horizon, des tâches de changement dynamique d'objectif et des tâches inédites en zéro-shot, atteignant des performances supérieures dans des environnements simulés et réels. Des vidéos et du code sont disponibles sur : https://rich-language-failure-recovery.github.io.