ChatPaper.aiChatPaper

Escalando Agentes Instruibles a Través de Múltiples Mundos Simulados

Scaling Instructable Agents Across Many Simulated Worlds

March 13, 2024
Autores: SIMA Team, Maria Abi Raad, Arun Ahuja, Catarina Barros, Frederic Besse, Andrew Bolt, Adrian Bolton, Bethanie Brownfield, Gavin Buttimore, Max Cant, Sarah Chakera, Stephanie C. Y. Chan, Jeff Clune, Adrian Collister, Vikki Copeman, Alex Cullum, Ishita Dasgupta, Dario de Cesare, Julia Di Trapani, Yani Donchev, Emma Dunleavy, Martin Engelcke, Ryan Faulkner, Frankie Garcia, Charles Gbadamosi, Zhitao Gong, Lucy Gonzales, Karol Gregor, Arne Olav Hallingstad, Tim Harley, Sam Haves, Felix Hill, Ed Hirst, Drew A. Hudson, Steph Hughes-Fitt, Danilo J. Rezende, Mimi Jasarevic, Laura Kampis, Rosemary Ke, Thomas Keck, Junkyung Kim, Oscar Knagg, Kavya Kopparapu, Andrew Lampinen, Shane Legg, Alexander Lerchner, Marjorie Limont, Yulan Liu, Maria Loks-Thompson, Joseph Marino, Kathryn Martin Cussons, Loic Matthey, Siobhan Mcloughlin, Piermaria Mendolicchio, Hamza Merzic, Anna Mitenkova, Alexandre Moufarek, Valeria Oliveira, Yanko Oliveira, Hannah Openshaw, Renke Pan, Aneesh Pappu, Alex Platonov, Ollie Purkiss, David Reichert, John Reid, Pierre Harvey Richemond, Tyson Roberts, Giles Ruscoe, Jaume Sanchez Elias, Tasha Sandars, Daniel P. Sawyer, Tim Scholtes, Guy Simmons, Daniel Slater, Hubert Soyer, Heiko Strathmann, Peter Stys, Allison C. Tam, Denis Teplyashin, Tayfun Terzi, Davide Vercelli, Bojan Vujatovic, Marcus Wainwright, Jane X. Wang, Zhengdong Wang, Daan Wierstra, Duncan Williams, Nathaniel Wong, Sarah York, Nick Young
cs.AI

Resumen

Construir sistemas de IA encarnada que puedan seguir instrucciones lingüísticas arbitrarias en cualquier entorno 3D es un desafío clave para crear una IA general. Lograr este objetivo requiere aprender a fundamentar el lenguaje en la percepción y las acciones encarnadas, con el fin de realizar tareas complejas. El proyecto Scalable, Instructable, Multiworld Agent (SIMA) aborda esto entrenando agentes para seguir instrucciones de forma libre en una amplia gama de entornos virtuales 3D, incluyendo entornos de investigación cuidadosamente seleccionados, así como videojuegos comerciales de mundo abierto. Nuestro objetivo es desarrollar un agente instruible que pueda realizar cualquier tarea que un humano pueda hacer en cualquier entorno 3D simulado. Nuestro enfoque se centra en la generalidad impulsada por el lenguaje, imponiendo suposiciones mínimas. Nuestros agentes interactúan con los entornos en tiempo real utilizando una interfaz genérica y similar a la humana: las entradas son observaciones de imágenes e instrucciones lingüísticas, y las salidas son acciones de teclado y ratón. Este enfoque general es desafiante, pero permite a los agentes fundamentar el lenguaje en muchos entornos visualmente complejos y semánticamente ricos, al mismo tiempo que nos permite ejecutar fácilmente agentes en nuevos entornos. En este artículo describimos nuestra motivación y objetivo, el progreso inicial que hemos logrado y los prometedores resultados preliminares en varios entornos de investigación diversos y una variedad de videojuegos comerciales.
English
Building embodied AI systems that can follow arbitrary language instructions in any 3D environment is a key challenge for creating general AI. Accomplishing this goal requires learning to ground language in perception and embodied actions, in order to accomplish complex tasks. The Scalable, Instructable, Multiworld Agent (SIMA) project tackles this by training agents to follow free-form instructions across a diverse range of virtual 3D environments, including curated research environments as well as open-ended, commercial video games. Our goal is to develop an instructable agent that can accomplish anything a human can do in any simulated 3D environment. Our approach focuses on language-driven generality while imposing minimal assumptions. Our agents interact with environments in real-time using a generic, human-like interface: the inputs are image observations and language instructions and the outputs are keyboard-and-mouse actions. This general approach is challenging, but it allows agents to ground language across many visually complex and semantically rich environments while also allowing us to readily run agents in new environments. In this paper we describe our motivation and goal, the initial progress we have made, and promising preliminary results on several diverse research environments and a variety of commercial video games.

Summary

AI-Generated Summary

PDF291December 15, 2024