GET-Zero: Трансформер Графового Воплощения для Обобщения без Обучения
GET-Zero: Graph Embodiment Transformer for Zero-shot Embodiment Generalization
July 20, 2024
Авторы: Austin Patel, Shuran Song
cs.AI
Аннотация
Данная статья представляет GET-Zero, архитектуру модели и процедуру обучения для изучения политики управления, осознающей воплощение, способной немедленно адаптироваться к новым изменениям в аппаратуре без повторного обучения. Для этого мы представляем Графовый Трансформер Воплощения (GET), модель трансформера, которая использует связность графа воплощения в качестве изученного структурного смещения в механизме внимания. Мы используем клонирование поведения для дистилляции данных демонстрации от экспертных политик, специфичных для воплощения, в модель GET, осознающую воплощение, которая зависит от конфигурации аппаратуры робота для принятия решений по управлению. Мы проводим кейс-исследование на задаче вращения объекта в руке с помощью различных конфигураций четырехпалой роботизированной руки с удаленными сочленениями и увеличением длины звена. Использование модели GET вместе с потерей самомоделирования позволяет GET-Zero обобщать на невидимые вариации в структуре графа и длине звена, обеспечивая улучшение на 20% по сравнению с базовыми методами. Весь код и результаты качественного видео доступны на https://get-zero-paper.github.io
English
This paper introduces GET-Zero, a model architecture and training procedure
for learning an embodiment-aware control policy that can immediately adapt to
new hardware changes without retraining. To do so, we present Graph Embodiment
Transformer (GET), a transformer model that leverages the embodiment graph
connectivity as a learned structural bias in the attention mechanism. We use
behavior cloning to distill demonstration data from embodiment-specific expert
policies into an embodiment-aware GET model that conditions on the hardware
configuration of the robot to make control decisions. We conduct a case study
on a dexterous in-hand object rotation task using different configurations of a
four-fingered robot hand with joints removed and with link length extensions.
Using the GET model along with a self-modeling loss enables GET-Zero to
zero-shot generalize to unseen variation in graph structure and link length,
yielding a 20% improvement over baseline methods. All code and qualitative
video results are on https://get-zero-paper.github.ioSummary
AI-Generated Summary