SayTap: Sprache zu quadrupedaler Fortbewegung
SayTap: Language to Quadrupedal Locomotion
June 13, 2023
Autoren: Yujin Tang, Wenhao Yu, Jie Tan, Heiga Zen, Aleksandra Faust, Tatsuya Harada
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) haben das Potenzial gezeigt, hochrangige Planungsaufgaben zu bewältigen. Dennoch bleibt es eine Herausforderung für LLMs, niedrigrangige Befehle wie Gelenkwinkelziele oder Motordrehmomente zu verstehen. Dieses Papier schlägt einen Ansatz vor, der Fußkontaktmuster als Schnittstelle verwendet, um menschliche Befehle in natürlicher Sprache mit einem Fortbewegungsregler zu verbinden, der diese niedrigrangigen Befehle ausgibt. Dies führt zu einem interaktiven System für vierbeinige Roboter, das es den Nutzern ermöglicht, vielfältige Fortbewegungsverhalten flexibel zu gestalten. Wir tragen ein LLM-Prompt-Design, eine Belohnungsfunktion und eine Methode bei, um den Regler mit der realisierbaren Verteilung von Kontaktmustern vertraut zu machen. Die Ergebnisse sind ein Regler, der in der Lage ist, diverse Fortbewegungsmuster zu erreichen, die auf echte Roboterhardware übertragen werden können. Im Vergleich zu anderen Designentscheidungen erreicht der vorgeschlagene Ansatz eine Erfolgsrate von mehr als 50 % bei der Vorhersage der korrekten Kontaktmuster und kann 10 zusätzliche Aufgaben von insgesamt 30 Aufgaben lösen. Unsere Projektseite ist: https://saytap.github.io.
English
Large language models (LLMs) have demonstrated the potential to perform
high-level planning. Yet, it remains a challenge for LLMs to comprehend
low-level commands, such as joint angle targets or motor torques. This paper
proposes an approach to use foot contact patterns as an interface that bridges
human commands in natural language and a locomotion controller that outputs
these low-level commands. This results in an interactive system for quadrupedal
robots that allows the users to craft diverse locomotion behaviors flexibly. We
contribute an LLM prompt design, a reward function, and a method to expose the
controller to the feasible distribution of contact patterns. The results are a
controller capable of achieving diverse locomotion patterns that can be
transferred to real robot hardware. Compared with other design choices, the
proposed approach enjoys more than 50% success rate in predicting the correct
contact patterns and can solve 10 more tasks out of a total of 30 tasks. Our
project site is: https://saytap.github.io.