Масштабирование обучения собственно-визуального восприятия с гетерогенными предобученными трансформерами
Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers
September 30, 2024
Авторы: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI
Аннотация
Одним из препятствий для обучения универсальных робототехнических моделей сегодня является гетерогенность. Предыдущие методы обучения роботов часто собирали данные для обучения с одним конкретным воплощением для одной задачи, что является дорогостоящим и подверженным переобучению. В данной работе изучается проблема обучения представлений политики через гетерогенное предварительное обучение на данных роботов различных воплощений и задач в масштабе. Мы предлагаем Гетерогенные Предварительно Обученные Трансформеры (HPT), которые предварительно обучают большой, общий ствол нейронной сети политики для изучения общего представления задачи и воплощения. Эта общая архитектура выравнивает конкретные входы проприоцепции и зрения из различных воплощений на короткую последовательность токенов, а затем обрабатывает такие токены для отображения управления роботами для различных задач. Используя недавние масштабные мультивоплощенческие реальные наборы данных роботов, а также симуляцию, развернутых роботов и наборы данных видео с участием людей, мы исследуем предварительное обучение политик в условиях гетерогенности. Мы проводим эксперименты для изучения поведения масштабирования целевых функций на 52 наборах данных. HPT превосходят несколько базовых вариантов и улучшают производительность настроенной политики более чем на 20% на невидимых задачах в нескольких бенчмарках симуляторов и реальных условиях. См. веб-сайт проекта (https://liruiw.github.io/hpt/) для кода и видео.
English
One of the roadblocks for training generalist robotic models today is
heterogeneity. Previous robot learning methods often collect data to train with
one specific embodiment for one task, which is expensive and prone to
overfitting. This work studies the problem of learning policy representations
through heterogeneous pre-training on robot data across different embodiments
and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT),
which pre-train a large, shareable trunk of a policy neural network to learn a
task and embodiment agnostic shared representation. This general architecture
aligns the specific proprioception and vision inputs from distinct embodiments
to a short sequence of tokens and then processes such tokens to map to control
robots for different tasks. Leveraging the recent large-scale multi-embodiment
real-world robotic datasets as well as simulation, deployed robots, and human
video datasets, we investigate pre-training policies across heterogeneity. We
conduct experiments to investigate the scaling behaviors of training
objectives, to the extent of 52 datasets. HPTs outperform several baselines and
enhance the fine-tuned policy performance by over 20% on unseen tasks in
multiple simulator benchmarks and real-world settings. See the project website
(https://liruiw.github.io/hpt/) for code and videos.Summary
AI-Generated Summary