ChatPaper.aiChatPaper

SayTap: Taal naar Viervoetige Locomotie

SayTap: Language to Quadrupedal Locomotion

June 13, 2023
Auteurs: Yujin Tang, Wenhao Yu, Jie Tan, Heiga Zen, Aleksandra Faust, Tatsuya Harada
cs.AI

Samenvatting

Grote taalmmodellen (LLM's) hebben het potentieel getoond om hoogwaardige planning uit te voeren. Toch blijft het een uitdaging voor LLM's om laagniveau commando's te begrijpen, zoals gewrichtshoekdoelen of motorkoppels. Dit artikel stelt een aanpak voor om voetcontactpatronen te gebruiken als een interface die menselijke commando's in natuurlijke taal verbindt met een bewegingscontroller die deze laagniveau commando's uitvoert. Dit resulteert in een interactief systeem voor viervoetige robots dat gebruikers in staat stelt om diverse bewegingsgedragingen flexibel te ontwerpen. Wij dragen bij met een LLM-promptontwerp, een beloningsfunctie en een methode om de controller bloot te stellen aan de haalbare verdeling van contactpatronen. De resultaten zijn een controller die in staat is diverse bewegingspatronen te bereiken die kunnen worden overgedragen naar echte robothardware. Vergeleken met andere ontwerpkeuzes geniet de voorgestelde aanpak een slagingspercentage van meer dan 50% in het voorspellen van de juiste contactpatronen en kan het 10 extra taken oplossen uit een totaal van 30 taken. Onze projectwebsite is: https://saytap.github.io.
English
Large language models (LLMs) have demonstrated the potential to perform high-level planning. Yet, it remains a challenge for LLMs to comprehend low-level commands, such as joint angle targets or motor torques. This paper proposes an approach to use foot contact patterns as an interface that bridges human commands in natural language and a locomotion controller that outputs these low-level commands. This results in an interactive system for quadrupedal robots that allows the users to craft diverse locomotion behaviors flexibly. We contribute an LLM prompt design, a reward function, and a method to expose the controller to the feasible distribution of contact patterns. The results are a controller capable of achieving diverse locomotion patterns that can be transferred to real robot hardware. Compared with other design choices, the proposed approach enjoys more than 50% success rate in predicting the correct contact patterns and can solve 10 more tasks out of a total of 30 tasks. Our project site is: https://saytap.github.io.
PDF70February 20, 2026