ChatPaper.aiChatPaper

Um Agente de Linguagem Zero-Shot para Controle de Computadores com Reflexão Estruturada

A Zero-Shot Language Agent for Computer Control with Structured Reflection

October 12, 2023
Autores: Tao Li, Gang Li, Zhiwei Deng, Bryan Wang, Yang Li
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) têm demonstrado uma capacidade crescente de planejar e executar um objetivo de alto nível em um ambiente computacional em tempo real (por exemplo, MiniWoB++). Para realizar uma tarefa, trabalhos recentes frequentemente exigem que um modelo aprenda a partir de exemplos de traços da tarefa por meio de aprendizado supervisionado ou de prompts com poucos/muitos exemplos. Sem esses traços de exemplos, continua sendo um desafio como um agente pode aprender e melhorar autonomamente seu controle em um computador, o que limita a capacidade de um agente de executar uma nova tarefa. Abordamos esse problema com um agente zero-shot que não requer traços de especialistas fornecidos. Nosso agente planeja ações executáveis em um ambiente parcialmente observado e avança iterativamente em uma tarefa, identificando e aprendendo com seus erros por meio de autorreflexão e gerenciamento estruturado de pensamentos. Nas tarefas mais simples do MiniWoB++, mostramos que nosso agente zero-shot frequentemente supera os SoTAs (state-of-the-art) recentes, com raciocínio mais eficiente. Para tarefas com maior complexidade, nosso agente reflexivo tem um desempenho comparável aos melhores modelos anteriores, mesmo que trabalhos anteriores tivessem a vantagem de acessar traços de especialistas ou informações adicionais da tela.
English
Large language models (LLMs) have shown increasing capacity at planning and executing a high-level goal in a live computer environment (e.g. MiniWoB++). To perform a task, recent works often require a model to learn from trace examples of the task via either supervised learning or few/many-shot prompting. Without these trace examples, it remains a challenge how an agent can autonomously learn and improve its control on a computer, which limits the ability of an agent to perform a new task. We approach this problem with a zero-shot agent that requires no given expert traces. Our agent plans for executable actions on a partially observed environment, and iteratively progresses a task by identifying and learning from its mistakes via self-reflection and structured thought management. On the easy tasks of MiniWoB++, we show that our zero-shot agent often outperforms recent SoTAs, with more efficient reasoning. For tasks with more complexity, our reflective agent performs on par with prior best models, even though previous works had the advantages of accessing expert traces or additional screen information.
PDF162December 15, 2024