ChatPaper.aiChatPaper

ИГОР: Изображения-цели представляют собой атомные блоки управления для базовых моделей во воплощенном искусственном интеллекте.

IGOR: Image-GOal Representations are the Atomic Control Units for Foundation Models in Embodied AI

October 17, 2024
Авторы: Xiaoyu Chen, Junliang Guo, Tianyu He, Chuheng Zhang, Pushi Zhang, Derek Cathera Yang, Li Zhao, Jiang Bian
cs.AI

Аннотация

Мы представляем Представления Изображения-Цели (IGOR), нацеленные на изучение объединенного, семантически последовательного пространства действий между человеком и различными роботами. Через это объединенное скрытое пространство действий IGOR обеспечивает передачу знаний среди данных о деятельности масштабных роботов и людей. Мы достигаем этого путем сжатия визуальных изменений между начальным изображением и его целевым состоянием в скрытые действия. IGOR позволяет нам генерировать метки скрытых действий для видеоданных масштаба Интернета. Это объединенное скрытое пространство действий обеспечивает обучение основных политик и моделей мира по широкому спектру задач, выполняемых как роботами, так и людьми. Мы демонстрируем, что: (1) IGOR изучает семантически последовательное пространство действий как для людей, так и для роботов, характеризуя различные возможные движения объектов, представляющих знание о физическом взаимодействии; (2) IGOR может "мигрировать" движения объекта из одного видео в другие видео, даже между людьми и роботами, совместно используя модель скрытых действий и модель мира; (3) IGOR может научиться выравнивать скрытые действия с естественным языком через модель основной политики и интегрировать скрытые действия с моделью политики низкого уровня для достижения эффективного управления роботом. Мы считаем, что IGOR открывает новые возможности для передачи знаний от человека к роботу и управления.
English
We introduce Image-GOal Representations (IGOR), aiming to learn a unified, semantically consistent action space across human and various robots. Through this unified latent action space, IGOR enables knowledge transfer among large-scale robot and human activity data. We achieve this by compressing visual changes between an initial image and its goal state into latent actions. IGOR allows us to generate latent action labels for internet-scale video data. This unified latent action space enables the training of foundation policy and world models across a wide variety of tasks performed by both robots and humans. We demonstrate that: (1) IGOR learns a semantically consistent action space for both human and robots, characterizing various possible motions of objects representing the physical interaction knowledge; (2) IGOR can "migrate" the movements of the object in the one video to other videos, even across human and robots, by jointly using the latent action model and world model; (3) IGOR can learn to align latent actions with natural language through the foundation policy model, and integrate latent actions with a low-level policy model to achieve effective robot control. We believe IGOR opens new possibilities for human-to-robot knowledge transfer and control.
PDF82November 13, 2024