Skalierung des Propriozeptiv-Visuellen Lernens mit heterogenen vortrainierten Transformatoren
Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers
September 30, 2024
papers.authors: Lirui Wang, Xinlei Chen, Jialiang Zhao, Kaiming He
cs.AI
papers.abstract
Einer der Hindernisse für das Training von generalistischen Robotikmodellen heute ist die Heterogenität. Frühere Methoden des Roboterlernens sammeln oft Daten, um mit einer spezifischen Verkörperung für eine Aufgabe zu trainieren, was teuer ist und zu Überanpassung neigt. Diese Arbeit untersucht das Problem des Lernens von Richtliniendarstellungen durch heterogenes Vor-Training an Roboterdaten über verschiedene Verkörperungen und Aufgaben im großen Maßstab. Wir schlagen Heterogene Vor-trainierte Transformer (HPT) vor, die einen großen, gemeinsam nutzbaren Rumpf eines Richtlinien-Neuronalen Netzwerks vor-trainieren, um eine aufgaben- und verkörperungsunabhängige gemeinsame Darstellung zu erlernen. Diese allgemeine Architektur gleicht die spezifischen Eigenwahrnehmungs- und Seheingaben aus verschiedenen Verkörperungen einem kurzen Token-Folgen zu und verarbeitet dann solche Tokens, um Roboter für verschiedene Aufgaben zu steuern. Unter Nutzung der aktuellen groß angelegten multi-verkörperungsbezogenen realen Roboterdatensätze sowie Simulationen, eingesetzten Robotern und menschlichen Videodatensätzen untersuchen wir das Vor-Training von Richtlinien über Heterogenität. Wir führen Experimente durch, um das Skalierungsverhalten von Trainingszielen bis zu 52 Datensätzen zu untersuchen. HPTs übertreffen mehrere Baselines und verbessern die Leistung der feinabgestimmten Richtlinie um über 20 % bei unbekannten Aufgaben in mehreren Simulator-Benchmarks und realen Umgebungen. Besuchen Sie die Projektwebsite (https://liruiw.github.io/hpt/) für Code und Videos.
English
One of the roadblocks for training generalist robotic models today is
heterogeneity. Previous robot learning methods often collect data to train with
one specific embodiment for one task, which is expensive and prone to
overfitting. This work studies the problem of learning policy representations
through heterogeneous pre-training on robot data across different embodiments
and tasks at scale. We propose Heterogeneous Pre-trained Transformers (HPT),
which pre-train a large, shareable trunk of a policy neural network to learn a
task and embodiment agnostic shared representation. This general architecture
aligns the specific proprioception and vision inputs from distinct embodiments
to a short sequence of tokens and then processes such tokens to map to control
robots for different tasks. Leveraging the recent large-scale multi-embodiment
real-world robotic datasets as well as simulation, deployed robots, and human
video datasets, we investigate pre-training policies across heterogeneity. We
conduct experiments to investigate the scaling behaviors of training
objectives, to the extent of 52 datasets. HPTs outperform several baselines and
enhance the fine-tuned policy performance by over 20% on unseen tasks in
multiple simulator benchmarks and real-world settings. See the project website
(https://liruiw.github.io/hpt/) for code and videos.