ChatPaper.aiChatPaper

PEEK : Représentations d'images guidées et minimales pour la généralisation zero-shot des politiques de manipulation robotique

PEEK: Guiding and Minimal Image Representations for Zero-Shot Generalization of Robot Manipulation Policies

September 22, 2025
papers.authors: Jesse Zhang, Marius Memmel, Kevin Kim, Dieter Fox, Jesse Thomason, Fabio Ramos, Erdem Bıyık, Abhishek Gupta, Anqi Li
cs.AI

papers.abstract

Les politiques de manipulation robotique échouent souvent à généraliser car elles doivent simultanément apprendre où se concentrer, quelles actions entreprendre et comment les exécuter. Nous soutenons que le raisonnement de haut niveau sur le "où" et le "quoi" peut être délégué à des modèles vision-langage (VLMs), permettant aux politiques de se spécialiser dans le "comment" agir. Nous présentons PEEK (Policy-agnostic Extraction of Essential Keypoints), qui affine les VLMs pour prédire une représentation intermédiaire unifiée basée sur des points : 1. des trajectoires d'effecteur final spécifiant les actions à entreprendre, et 2. des masques pertinents à la tâche indiquant où se concentrer. Ces annotations sont directement superposées aux observations du robot, rendant la représentation indépendante de la politique et transférable entre architectures. Pour permettre un entraînement scalable, nous introduisons un pipeline d'annotation automatique, générant des données étiquetées à partir de plus de 20 ensembles de données robotiques couvrant 9 configurations. Dans des évaluations en conditions réelles, PEEK améliore systématiquement la généralisation zero-shot, incluant une amélioration de 41,4x en conditions réelles pour une politique 3D entraînée uniquement en simulation, et des gains de 2 à 3,5x pour les grands VLAs ainsi que pour les petites politiques de manipulation. En permettant aux VLMs d'absorber la complexité sémantique et visuelle, PEEK équipe les politiques de manipulation des indices minimaux dont elles ont besoin—où, quoi et comment. Site web à l'adresse https://peek-robot.github.io/.
English
Robotic manipulation policies often fail to generalize because they must simultaneously learn where to attend, what actions to take, and how to execute them. We argue that high-level reasoning about where and what can be offloaded to vision-language models (VLMs), leaving policies to specialize in how to act. We present PEEK (Policy-agnostic Extraction of Essential Keypoints), which fine-tunes VLMs to predict a unified point-based intermediate representation: 1. end-effector paths specifying what actions to take, and 2. task-relevant masks indicating where to focus. These annotations are directly overlaid onto robot observations, making the representation policy-agnostic and transferable across architectures. To enable scalable training, we introduce an automatic annotation pipeline, generating labeled data across 20+ robot datasets spanning 9 embodiments. In real-world evaluations, PEEK consistently boosts zero-shot generalization, including a 41.4x real-world improvement for a 3D policy trained only in simulation, and 2-3.5x gains for both large VLAs and small manipulation policies. By letting VLMs absorb semantic and visual complexity, PEEK equips manipulation policies with the minimal cues they need--where, what, and how. Website at https://peek-robot.github.io/.
PDF12September 24, 2025