ChatPaper.aiChatPaper

Overal rijden met aanpassing van het Large Language Model-beleid

Driving Everywhere with Large Language Model Policy Adaptation

February 8, 2024
Auteurs: Boyi Li, Yue Wang, Jiageng Mao, Boris Ivanovic, Sushant Veer, Karen Leung, Marco Pavone
cs.AI

Samenvatting

Het aanpassen van rijgedrag aan nieuwe omgevingen, gewoonten en wetten is een lang bestaand probleem in autonoom rijden, wat de wijdverspreide inzet van autonome voertuigen (AV's) belemmert. In dit artikel presenteren we LLaDA, een eenvoudig maar krachtig hulpmiddel dat zowel menselijke bestuurders als autonome voertuigen in staat stelt overal te rijden door hun taken en bewegingsplannen aan te passen aan de verkeersregels in nieuwe locaties. LLaDA bereikt dit door gebruik te maken van de indrukwekkende zero-shot generaliseerbaarheid van grote taalmodellen (LLM's) bij het interpreteren van de verkeersregels in het lokale rijhandboek. Door een uitgebreide gebruikersstudie tonen we aan dat de instructies van LLaDA nuttig zijn bij het ophelderen van onverwachte situaties in de praktijk. We demonstreren ook het vermogen van LLaDA om AV-bewegingsplanningsbeleid aan te passen in real-world datasets; LLaDA presteert beter dan baseline planningsbenaderingen op al onze metrieken. Bekijk onze website voor meer details: https://boyiliee.github.io/llada.
English
Adapting driving behavior to new environments, customs, and laws is a long-standing problem in autonomous driving, precluding the widespread deployment of autonomous vehicles (AVs). In this paper, we present LLaDA, a simple yet powerful tool that enables human drivers and autonomous vehicles alike to drive everywhere by adapting their tasks and motion plans to traffic rules in new locations. LLaDA achieves this by leveraging the impressive zero-shot generalizability of large language models (LLMs) in interpreting the traffic rules in the local driver handbook. Through an extensive user study, we show that LLaDA's instructions are useful in disambiguating in-the-wild unexpected situations. We also demonstrate LLaDA's ability to adapt AV motion planning policies in real-world datasets; LLaDA outperforms baseline planning approaches on all our metrics. Please check our website for more details: https://boyiliee.github.io/llada.
PDF51December 15, 2024