ChatPaper.aiChatPaper

Ein Zero-Shot-Sprachagent für die Computersteuerung mit strukturierter Reflexion

A Zero-Shot Language Agent for Computer Control with Structured Reflection

October 12, 2023
Autoren: Tao Li, Gang Li, Zhiwei Deng, Bryan Wang, Yang Li
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben eine zunehmende Fähigkeit gezeigt, ein übergeordnetes Ziel in einer aktiven Computerumgebung (z. B. MiniWoB++) zu planen und auszuführen. Um eine Aufgabe zu erfüllen, erfordern aktuelle Arbeiten oft, dass ein Modell aus Beispielabläufen der Aufgabe lernt, entweder durch überwachtes Lernen oder durch Few-/Many-Shot-Prompting. Ohne diese Beispielabläufe bleibt es eine Herausforderung, wie ein Agent autonom lernen und seine Kontrolle über einen Computer verbessern kann, was die Fähigkeit eines Agents einschränkt, eine neue Aufgabe auszuführen. Wir nähern uns diesem Problem mit einem Zero-Shot-Agenten, der keine vorgegebenen Expertenabläufe benötigt. Unser Agent plant ausführbare Aktionen in einer teilweise beobachteten Umgebung und schreitet iterativ bei einer Aufgabe voran, indem er seine Fehler durch Selbstreflexion und strukturiertes Gedankenmanagement identifiziert und daraus lernt. Bei den einfachen Aufgaben von MiniWoB++ zeigen wir, dass unser Zero-Shot-Agent oft die aktuellen State-of-the-Art-Modelle übertrifft, mit effizienterer Argumentation. Bei komplexeren Aufgaben schneidet unser reflektierender Agent genauso gut ab wie die bisher besten Modelle, obwohl frühere Arbeiten den Vorteil hatten, auf Expertenabläufe oder zusätzliche Bildschirminformationen zugreifen zu können.
English
Large language models (LLMs) have shown increasing capacity at planning and executing a high-level goal in a live computer environment (e.g. MiniWoB++). To perform a task, recent works often require a model to learn from trace examples of the task via either supervised learning or few/many-shot prompting. Without these trace examples, it remains a challenge how an agent can autonomously learn and improve its control on a computer, which limits the ability of an agent to perform a new task. We approach this problem with a zero-shot agent that requires no given expert traces. Our agent plans for executable actions on a partially observed environment, and iteratively progresses a task by identifying and learning from its mistakes via self-reflection and structured thought management. On the easy tasks of MiniWoB++, we show that our zero-shot agent often outperforms recent SoTAs, with more efficient reasoning. For tasks with more complexity, our reflective agent performs on par with prior best models, even though previous works had the advantages of accessing expert traces or additional screen information.
PDF162December 15, 2024