ChatPaper.aiChatPaper

SayTap: Sprache zu quadrupedaler Fortbewegung

SayTap: Language to Quadrupedal Locomotion

June 13, 2023
Autoren: Yujin Tang, Wenhao Yu, Jie Tan, Heiga Zen, Aleksandra Faust, Tatsuya Harada
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben das Potenzial gezeigt, hochrangige Planungsaufgaben zu bewältigen. Dennoch bleibt es eine Herausforderung für LLMs, niedrigrangige Befehle wie Gelenkwinkelziele oder Motordrehmomente zu verstehen. Dieses Papier schlägt einen Ansatz vor, der Fußkontaktmuster als Schnittstelle verwendet, um menschliche Befehle in natürlicher Sprache mit einem Fortbewegungsregler zu verbinden, der diese niedrigrangigen Befehle ausgibt. Dies führt zu einem interaktiven System für vierbeinige Roboter, das es den Nutzern ermöglicht, vielfältige Fortbewegungsverhalten flexibel zu gestalten. Wir tragen ein LLM-Prompt-Design, eine Belohnungsfunktion und eine Methode bei, um den Regler mit der realisierbaren Verteilung von Kontaktmustern vertraut zu machen. Die Ergebnisse sind ein Regler, der in der Lage ist, diverse Fortbewegungsmuster zu erreichen, die auf echte Roboterhardware übertragen werden können. Im Vergleich zu anderen Designentscheidungen erreicht der vorgeschlagene Ansatz eine Erfolgsrate von mehr als 50 % bei der Vorhersage der korrekten Kontaktmuster und kann 10 zusätzliche Aufgaben von insgesamt 30 Aufgaben lösen. Unsere Projektseite ist: https://saytap.github.io.
English
Large language models (LLMs) have demonstrated the potential to perform high-level planning. Yet, it remains a challenge for LLMs to comprehend low-level commands, such as joint angle targets or motor torques. This paper proposes an approach to use foot contact patterns as an interface that bridges human commands in natural language and a locomotion controller that outputs these low-level commands. This results in an interactive system for quadrupedal robots that allows the users to craft diverse locomotion behaviors flexibly. We contribute an LLM prompt design, a reward function, and a method to expose the controller to the feasible distribution of contact patterns. The results are a controller capable of achieving diverse locomotion patterns that can be transferred to real robot hardware. Compared with other design choices, the proposed approach enjoys more than 50% success rate in predicting the correct contact patterns and can solve 10 more tasks out of a total of 30 tasks. Our project site is: https://saytap.github.io.
PDF70December 15, 2024