Dirigindo em Todos os Lugares com Adaptação de Políticas de Modelos de Linguagem de Grande Escala
Driving Everywhere with Large Language Model Policy Adaptation
February 8, 2024
Autores: Boyi Li, Yue Wang, Jiageng Mao, Boris Ivanovic, Sushant Veer, Karen Leung, Marco Pavone
cs.AI
Resumo
Adaptar o comportamento de direção a novos ambientes, costumes e leis é um
problema de longa data na condução autônoma, impedindo a implantação generalizada
de veículos autônomos (AVs). Neste artigo, apresentamos o LLaDA, uma
ferramenta simples, porém poderosa, que permite tanto a motoristas humanos quanto
a veículos autônomos dirigir em qualquer lugar, adaptando suas tarefas e planos de
movimento às regras de trânsito de novas localidades. O LLaDA alcança isso
aproveitando a impressionante capacidade de generalização zero-shot de modelos de
linguagem de grande escala (LLMs) na interpretação das regras de trânsito presentes
nos manuais locais de direção. Por meio de um extenso estudo com usuários,
mostramos que as instruções do LLaDA são úteis para desambiguar situações
inesperadas no mundo real. Também demonstramos a capacidade do LLaDA de
adaptar políticas de planejamento de movimento de AVs em conjuntos de dados do
mundo real; o LLaDA supera abordagens de planejamento de linha de base em todas
as nossas métricas. Para mais detalhes, consulte nosso site:
https://boyiliee.github.io/llada.
English
Adapting driving behavior to new environments, customs, and laws is a
long-standing problem in autonomous driving, precluding the widespread
deployment of autonomous vehicles (AVs). In this paper, we present LLaDA, a
simple yet powerful tool that enables human drivers and autonomous vehicles
alike to drive everywhere by adapting their tasks and motion plans to traffic
rules in new locations. LLaDA achieves this by leveraging the impressive
zero-shot generalizability of large language models (LLMs) in interpreting the
traffic rules in the local driver handbook. Through an extensive user study, we
show that LLaDA's instructions are useful in disambiguating in-the-wild
unexpected situations. We also demonstrate LLaDA's ability to adapt AV motion
planning policies in real-world datasets; LLaDA outperforms baseline planning
approaches on all our metrics. Please check our website for more details:
https://boyiliee.github.io/llada.