AutoRT: Modelli Fondamentali Incorporati per l'Orchestrazione su Larga Scala di Agenti Robotici
AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents
January 23, 2024
Autori: Michael Ahn, Debidatta Dwibedi, Chelsea Finn, Montse Gonzalez Arenas, Keerthana Gopalakrishnan, Karol Hausman, Brian Ichter, Alex Irpan, Nikhil Joshi, Ryan Julian, Sean Kirmani, Isabel Leal, Edward Lee, Sergey Levine, Yao Lu, Isabel Leal, Sharath Maddineni, Kanishka Rao, Dorsa Sadigh, Pannag Sanketi, Pierre Sermanet, Quan Vuong, Stefan Welker, Fei Xia, Ted Xiao, Peng Xu, Steve Xu, Zhuo Xu
cs.AI
Abstract
I modelli di fondazione che incorporano linguaggio, visione e, più recentemente, azioni hanno rivoluzionato la capacità di sfruttare dati su scala internet per ragionare su compiti utili. Tuttavia, una delle principali sfide nell'addestramento di modelli di fondazione incarnati è la mancanza di dati radicati nel mondo fisico. In questo articolo, proponiamo AutoRT, un sistema che sfrutta i modelli di fondazione esistenti per ampliare la distribuzione di robot operativi in scenari completamente inediti con una supervisione umana minima. AutoRT utilizza modelli visione-linguaggio (VLM) per la comprensione e il radicamento della scena, e impiega ulteriormente grandi modelli linguistici (LLM) per proporre istruzioni diverse e innovative da eseguire da parte di una flotta di robot. Guidare la raccolta dei dati attingendo alla conoscenza dei modelli di fondazione consente ad AutoRT di ragionare efficacemente sui compromessi dell'autonomia e sulla sicurezza, ampliando significativamente la raccolta di dati per l'apprendimento dei robot. Dimostriamo che AutoRT propone istruzioni a oltre 20 robot in più edifici e raccoglie 77k episodi reali di robot tramite sia teleoperazione che politiche autonome dei robot. Sperimentalmente, mostriamo che tali dati "in-the-wild" raccolti da AutoRT sono significativamente più diversificati, e che l'uso di LLM da parte di AutoRT consente la raccolta di dati di robot che seguono istruzioni allineate alle preferenze umane.
English
Foundation models that incorporate language, vision, and more recently
actions have revolutionized the ability to harness internet scale data to
reason about useful tasks. However, one of the key challenges of training
embodied foundation models is the lack of data grounded in the physical world.
In this paper, we propose AutoRT, a system that leverages existing foundation
models to scale up the deployment of operational robots in completely unseen
scenarios with minimal human supervision. AutoRT leverages vision-language
models (VLMs) for scene understanding and grounding, and further uses large
language models (LLMs) for proposing diverse and novel instructions to be
performed by a fleet of robots. Guiding data collection by tapping into the
knowledge of foundation models enables AutoRT to effectively reason about
autonomy tradeoffs and safety while significantly scaling up data collection
for robot learning. We demonstrate AutoRT proposing instructions to over 20
robots across multiple buildings and collecting 77k real robot episodes via
both teleoperation and autonomous robot policies. We experimentally show that
such "in-the-wild" data collected by AutoRT is significantly more diverse, and
that AutoRT's use of LLMs allows for instruction following data collection
robots that can align to human preferences.