ChatPaper.aiChatPaper

Escalando el Aprendizaje Propioceptivo-Visual con Transformadores Pre-entrenados Heterogéneos

Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers

September 30, 2024
Autores: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI

Resumen

Uno de los obstáculos para entrenar modelos robóticos generalistas hoy en día es la heterogeneidad. Los métodos de aprendizaje de robots anteriores a menudo recopilan datos para entrenar con una encarnación específica para una tarea, lo cual es costoso y propenso al sobreajuste. Este trabajo estudia el problema de aprender representaciones de políticas a través de un preentrenamiento heterogéneo en datos de robots a través de diferentes encarnaciones y tareas a gran escala. Proponemos Transformadores Preentrenados Heterogéneos (HPT), que preentrenan un tronco grande y compartible de una red neuronal de políticas para aprender una representación compartida agnóstica de tarea y encarnación. Esta arquitectura general alinea las entradas específicas de la propiocepción y visión de distintas encarnaciones a una secuencia corta de tokens y luego procesa dichos tokens para mapear el control de robots para diferentes tareas. Aprovechando los recientes conjuntos de datos robóticos del mundo real a gran escala con múltiples encarnaciones, así como simulaciones, robots desplegados y conjuntos de datos de video humanos, investigamos el preentrenamiento de políticas a través de la heterogeneidad. Realizamos experimentos para investigar los comportamientos de escalado de los objetivos de entrenamiento, hasta un total de 52 conjuntos de datos. Los HPT superan a varios baselines y mejoran el rendimiento de la política ajustada en más del 20% en tareas no vistas en múltiples simuladores y entornos del mundo real. Consulte el sitio web del proyecto (https://liruiw.github.io/hpt/) para ver el código y los videos.
English
One of the roadblocks for training generalist robotic models today is heterogeneity. Previous robot learning methods often collect data to train with one specific embodiment for one task, which is expensive and prone to overfitting. This work studies the problem of learning policy representations through heterogeneous pre-training on robot data across different embodiments and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT), which pre-train a large, shareable trunk of a policy neural network to learn a task and embodiment agnostic shared representation. This general architecture aligns the specific proprioception and vision inputs from distinct embodiments to a short sequence of tokens and then processes such tokens to map to control robots for different tasks. Leveraging the recent large-scale multi-embodiment real-world robotic datasets as well as simulation, deployed robots, and human video datasets, we investigate pre-training policies across heterogeneity. We conduct experiments to investigate the scaling behaviors of training objectives, to the extent of 52 datasets. HPTs outperform several baselines and enhance the fine-tuned policy performance by over 20% on unseen tasks in multiple simulator benchmarks and real-world settings. See the project website (https://liruiw.github.io/hpt/) for code and videos.

Summary

AI-Generated Summary

PDF142November 13, 2024