WALL-E: Wereldafstemming door regelgebaseerd leren verbetert LLM-agents op basis van wereldmodel.WALL-E: World Alignment by Rule Learning Improves World Model-based LLM
Agents
Kunnen grote taalmodellen (LLM's) rechtstreeks dienen als krachtige wereldmodellen voor op modellen gebaseerde agenten? Hoewel er wel degelijk kloven bestaan tussen de voorafgaande kennis van LLM's en de dynamiek van de gespecificeerde omgeving, onthult onze studie dat deze kloven kunnen worden overbrugd door een LLM af te stemmen op zijn ingezette omgeving, en dat een dergelijke "wereldafstemming" efficiënt kan worden bereikt door regels te leren op LLM's. Gezien de rijke voorafgaande kennis van LLM's volstaan slechts enkele extra regels om de voorspellingen van LLM's af te stemmen op de dynamiek van de gespecificeerde omgeving. Daartoe stellen we een neurosymbolische benadering voor om deze regels zonder gradiënt te leren via LLM's, door regels te induceren, bij te werken en te snoeien op basis van vergelijkingen tussen door de agent verkende trajecten en voorspellingen van het wereldmodel. Het resulterende wereldmodel bestaat uit de LLM en de geleerde regels. Onze belichaamde LLM-agent "WALL-E" is gebouwd op modelvoorspellende controle (MPC). Door vooruitkijkende acties te optimaliseren op basis van het nauwkeurige wereldmodel, verbetert MPC aanzienlijk de verkenning en leer-efficiëntie. In vergelijking met bestaande LLM-agenten vereist de redenering van WALL-E slechts enkele hoofdregels in plaats van uitgebreide gebufferde trajecten die in de LLM-input zijn opgenomen. In open-wereld uitdagingen in Minecraft en ALFWorld behaalt WALL-E hogere succespercentages dan bestaande methoden, met lagere kosten voor herplanningstijd en het aantal tokens dat wordt gebruikt voor redenering. In Minecraft overtreft WALL-E baselines met 15-30% in succespercentage, terwijl het 8-20 minder herplanningsrondes kost en slechts 60-80% van de tokens gebruikt. In ALFWorld stijgt het succespercentage naar een nieuw recordhoogte van 95% na slechts 6 iteraties.