Het ontleden van de generalisatiekloof in imitatieleren voor visuele robotmanipulatie
Decomposing the Generalization Gap in Imitation Learning for Visual Robotic Manipulation
July 7, 2023
Auteurs: Annie Xie, Lisa Lee, Ted Xiao, Chelsea Finn
cs.AI
Samenvatting
Wat maakt generalisatie moeilijk voor imitatieleren in visuele robotmanipulatie? Deze vraag is moeilijk rechtstreeks te benaderen, maar de omgeving vanuit het perspectief van een robot kan vaak worden opgedeeld in telbare variatiefactoren, zoals de lichtomstandigheden of de plaatsing van de camera. Empirisch gezien heeft generalisatie naar sommige van deze factoren een groter obstakel gevormd dan andere, maar bestaand onderzoek werpt weinig licht op precies hoeveel elke factor bijdraagt aan de generalisatiekloof. Om een antwoord op deze vraag te vinden, bestuderen we imitatieleren-beleidsregels in simulatie en in een taak van taal-gestuurde manipulatie op een echte robot om de moeilijkheid van generalisatie naar verschillende (sets van) factoren te kwantificeren. We ontwerpen ook een nieuwe gesimuleerde benchmark van 19 taken met 11 variatiefactoren om meer gecontroleerde evaluaties van generalisatie mogelijk te maken. Uit ons onderzoek bepalen we een volgorde van factoren op basis van generalisatiemoeilijkheid, die consistent is tussen simulatie en onze opstelling met een echte robot.
English
What makes generalization hard for imitation learning in visual robotic
manipulation? This question is difficult to approach at face value, but the
environment from the perspective of a robot can often be decomposed into
enumerable factors of variation, such as the lighting conditions or the
placement of the camera. Empirically, generalization to some of these factors
have presented a greater obstacle than others, but existing work sheds little
light on precisely how much each factor contributes to the generalization gap.
Towards an answer to this question, we study imitation learning policies in
simulation and on a real robot language-conditioned manipulation task to
quantify the difficulty of generalization to different (sets of) factors. We
also design a new simulated benchmark of 19 tasks with 11 factors of variation
to facilitate more controlled evaluations of generalization. From our study, we
determine an ordering of factors based on generalization difficulty, that is
consistent across simulation and our real robot setup.