ChatPaper.aiChatPaper

RoboTAP: Het Volgen van Willekeurige Punten voor Few-Shot Visuele Imitatie

RoboTAP: Tracking Arbitrary Points for Few-Shot Visual Imitation

August 30, 2023
Auteurs: Mel Vecerik, Carl Doersch, Yi Yang, Todor Davchev, Yusuf Aytar, Guangyao Zhou, Raia Hadsell, Lourdes Agapito, Jon Scholz
cs.AI

Samenvatting

Om robots nuttig te maken buiten laboratoria en gespecialiseerde fabrieken, hebben we een manier nodig om hen snel nieuwe nuttige gedragingen aan te leren. Huidige benaderingen missen ofwel de algemeenheid om nieuwe taken aan te leren zonder taakspecifieke engineering, ofwel de data-efficiëntie om dit te doen in een tijdsbestek dat praktisch gebruik mogelijk maakt. In dit werk onderzoeken we dense tracking als een representatiemiddel om sneller en algemener te leren van demonstraties. Onze aanpak maakt gebruik van Track-Any-Point (TAP) modellen om de relevante beweging in een demonstratie te isoleren en een low-level controller te parametriseren om deze beweging te reproduceren bij veranderingen in de scèneconfiguratie. We laten zien dat dit resulteert in robuuste robotbeleidsregels die complexe objectrangschikkings-taken kunnen oplossen, zoals vormherkenning, stapelen, en zelfs volledige padvolgings-taken zoals het aanbrengen van lijm en het aan elkaar plakken van objecten, allemaal op basis van demonstraties die binnen enkele minuten kunnen worden verzameld.
English
For robots to be useful outside labs and specialized factories we need a way to teach them new useful behaviors quickly. Current approaches lack either the generality to onboard new tasks without task-specific engineering, or else lack the data-efficiency to do so in an amount of time that enables practical use. In this work we explore dense tracking as a representational vehicle to allow faster and more general learning from demonstration. Our approach utilizes Track-Any-Point (TAP) models to isolate the relevant motion in a demonstration, and parameterize a low-level controller to reproduce this motion across changes in the scene configuration. We show this results in robust robot policies that can solve complex object-arrangement tasks such as shape-matching, stacking, and even full path-following tasks such as applying glue and sticking objects together, all from demonstrations that can be collected in minutes.
PDF121February 8, 2026