ChatPaper.aiChatPaper

Een Zero-Shot Taalagent voor Computerbesturing met Gestructureerde Reflectie

A Zero-Shot Language Agent for Computer Control with Structured Reflection

October 12, 2023
Auteurs: Tao Li, Gang Li, Zhiwei Deng, Bryan Wang, Yang Li
cs.AI

Samenvatting

Grote taalmodelen (LLMs) hebben een toenemend vermogen getoond om een hoog niveau doel te plannen en uit te voeren in een live computeromgeving (bijv. MiniWoB++). Om een taak uit te voeren, vereisen recente werken vaak dat een model leert van traceervoorbeelden van de taak via supervised learning of few/many-shot prompting. Zonder deze traceervoorbeelden blijft het een uitdaging hoe een agent autonoom kan leren en zijn controle over een computer kan verbeteren, wat het vermogen van een agent om een nieuwe taak uit te voeren beperkt. Wij benaderen dit probleem met een zero-shot agent die geen gegeven expert traces vereist. Onze agent plant uitvoerbare acties in een gedeeltelijk waargenomen omgeving en vordert iteratief in een taak door fouten te identificeren en ervan te leren via zelfreflectie en gestructureerd gedachtebeheer. Op de eenvoudige taken van MiniWoB++ laten we zien dat onze zero-shot agent vaak beter presteert dan recente state-of-the-art modellen, met efficiënter redeneren. Voor taken met meer complexiteit presteert onze reflectieve agent op hetzelfde niveau als de beste eerdere modellen, ook al hadden eerdere werken het voordeel van toegang tot expert traces of aanvullende scherminformatie.
English
Large language models (LLMs) have shown increasing capacity at planning and executing a high-level goal in a live computer environment (e.g. MiniWoB++). To perform a task, recent works often require a model to learn from trace examples of the task via either supervised learning or few/many-shot prompting. Without these trace examples, it remains a challenge how an agent can autonomously learn and improve its control on a computer, which limits the ability of an agent to perform a new task. We approach this problem with a zero-shot agent that requires no given expert traces. Our agent plans for executable actions on a partially observed environment, and iteratively progresses a task by identifying and learning from its mistakes via self-reflection and structured thought management. On the easy tasks of MiniWoB++, we show that our zero-shot agent often outperforms recent SoTAs, with more efficient reasoning. For tasks with more complexity, our reflective agent performs on par with prior best models, even though previous works had the advantages of accessing expert traces or additional screen information.
PDF152February 17, 2026