SayTap: Taal naar Viervoetige Locomotie
SayTap: Language to Quadrupedal Locomotion
June 13, 2023
Auteurs: Yujin Tang, Wenhao Yu, Jie Tan, Heiga Zen, Aleksandra Faust, Tatsuya Harada
cs.AI
Samenvatting
Grote taalmmodellen (LLM's) hebben het potentieel getoond om hoogwaardige planning uit te voeren. Toch blijft het een uitdaging voor LLM's om laagniveau commando's te begrijpen, zoals gewrichtshoekdoelen of motorkoppels. Dit artikel stelt een aanpak voor om voetcontactpatronen te gebruiken als een interface die menselijke commando's in natuurlijke taal verbindt met een bewegingscontroller die deze laagniveau commando's uitvoert. Dit resulteert in een interactief systeem voor viervoetige robots dat gebruikers in staat stelt om diverse bewegingsgedragingen flexibel te ontwerpen. Wij dragen bij met een LLM-promptontwerp, een beloningsfunctie en een methode om de controller bloot te stellen aan de haalbare verdeling van contactpatronen. De resultaten zijn een controller die in staat is diverse bewegingspatronen te bereiken die kunnen worden overgedragen naar echte robothardware. Vergeleken met andere ontwerpkeuzes geniet de voorgestelde aanpak een slagingspercentage van meer dan 50% in het voorspellen van de juiste contactpatronen en kan het 10 extra taken oplossen uit een totaal van 30 taken. Onze projectwebsite is: https://saytap.github.io.
English
Large language models (LLMs) have demonstrated the potential to perform
high-level planning. Yet, it remains a challenge for LLMs to comprehend
low-level commands, such as joint angle targets or motor torques. This paper
proposes an approach to use foot contact patterns as an interface that bridges
human commands in natural language and a locomotion controller that outputs
these low-level commands. This results in an interactive system for quadrupedal
robots that allows the users to craft diverse locomotion behaviors flexibly. We
contribute an LLM prompt design, a reward function, and a method to expose the
controller to the feasible distribution of contact patterns. The results are a
controller capable of achieving diverse locomotion patterns that can be
transferred to real robot hardware. Compared with other design choices, the
proposed approach enjoys more than 50% success rate in predicting the correct
contact patterns and can solve 10 more tasks out of a total of 30 tasks. Our
project site is: https://saytap.github.io.