WALL-E: Alinhamento Mundial por Aprendizado de Regras Melhora Agentes LLM Baseados em Modelo MundialWALL-E: World Alignment by Rule Learning Improves World Model-based LLM
Agents
Podem os grandes modelos de linguagem (LLMs) servir diretamente como poderosos modelos mundiais para agentes baseados em modelos? Embora existam lacunas entre o conhecimento prévio dos LLMs e a dinâmica do ambiente especificado, nosso estudo revela que essas lacunas podem ser superadas alinhando um LLM com seu ambiente implantado e esse "alinhamento mundial" pode ser alcançado de forma eficiente por meio da aprendizagem de regras nos LLMs. Dado o rico conhecimento prévio dos LLMs, apenas algumas regras adicionais são suficientes para alinhar as previsões do LLM com a dinâmica do ambiente especificado. Para isso, propomos uma abordagem neuro-simbólica para aprender essas regras sem gradientes por meio dos LLMs, induzindo, atualizando e podando regras com base em comparações entre trajetórias exploradas pelo agente e previsões do modelo mundial. O modelo mundial resultante é composto pelo LLM e pelas regras aprendidas. Nosso agente LLM incorporado "WALL-E" é construído com base no controle preditivo do modelo (MPC). Ao otimizar ações de antecipação com base no modelo mundial preciso, o MPC melhora significativamente a eficiência da exploração e da aprendizagem. Comparado aos agentes LLM existentes, o raciocínio do WALL-E requer apenas algumas regras principais em vez de trajetórias em buffer verbosas incluídas na entrada do LLM. Em desafios de mundo aberto no Minecraft e ALFWorld, o WALL-E alcança taxas de sucesso mais altas do que os métodos existentes, com menores custos de tempo de replanejamento e número de tokens usados para o raciocínio. No Minecraft, o WALL-E supera as linhas de base em 15-30% na taxa de sucesso, enquanto custa de 8 a 20 rodadas de replanejamento a menos e apenas 60-80% dos tokens. No ALFWorld, sua taxa de sucesso atinge um novo recorde de 95% após apenas 6 iterações.