ChatPaper.aiChatPaper

RVT: Robotic View Transformer für die 3D-Objektmanipulation

RVT: Robotic View Transformer for 3D Object Manipulation

June 26, 2023
Autoren: Ankit Goyal, Jie Xu, Yijie Guo, Valts Blukis, Yu-Wei Chao, Dieter Fox
cs.AI

Zusammenfassung

Für die Manipulation von 3D-Objekten erweisen sich Methoden, die eine explizite 3D-Darstellung aufbauen, als leistungsfähiger als solche, die sich ausschließlich auf Kamerabilder verlassen. Die Verwendung expliziter 3D-Darstellungen wie Voxel geht jedoch mit hohen Rechenkosten einher, was die Skalierbarkeit beeinträchtigt. In dieser Arbeit stellen wir RVT vor, einen Multi-View-Transformer für die 3D-Manipulation, der sowohl skalierbar als auch präzise ist. Zu den wesentlichen Merkmalen von RVT gehören ein Aufmerksamkeitsmechanismus zur Aggregation von Informationen über verschiedene Ansichten hinweg sowie das erneute Rendern der Kameraeingaben aus virtuellen Ansichten rund um den Arbeitsbereich des Roboters. In Simulationen zeigt sich, dass ein einzelnes RVT-Modell gut für 18 RLBench-Aufgaben mit 249 Aufgabenvarianten geeignet ist und dabei eine um 26 % höhere relative Erfolgsquote als die bestehende State-of-the-Art-Methode (PerAct) erzielt. Es trainiert außerdem 36-mal schneller als PerAct, um die gleiche Leistung zu erreichen, und bietet eine 2,3-fache Inferenzgeschwindigkeit im Vergleich zu PerAct. Darüber hinaus kann RVT eine Vielzahl von Manipulationsaufgaben in der realen Welt mit nur wenigen (sim10) Demonstrationen pro Aufgabe durchführen. Visuelle Ergebnisse, Code und das trainierte Modell sind unter https://robotic-view-transformer.github.io/ verfügbar.
English
For 3D object manipulation, methods that build an explicit 3D representation perform better than those relying only on camera images. But using explicit 3D representations like voxels comes at large computing cost, adversely affecting scalability. In this work, we propose RVT, a multi-view transformer for 3D manipulation that is both scalable and accurate. Some key features of RVT are an attention mechanism to aggregate information across views and re-rendering of the camera input from virtual views around the robot workspace. In simulations, we find that a single RVT model works well across 18 RLBench tasks with 249 task variations, achieving 26% higher relative success than the existing state-of-the-art method (PerAct). It also trains 36X faster than PerAct for achieving the same performance and achieves 2.3X the inference speed of PerAct. Further, RVT can perform a variety of manipulation tasks in the real world with just a few (sim10) demonstrations per task. Visual results, code, and trained model are provided at https://robotic-view-transformer.github.io/.
PDF20December 15, 2024