Automação Responsável de Tarefas: Capacitando Modelos de Linguagem de Grande Escala como Automatizadores Responsáveis de Tarefas
Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators
June 2, 2023
Autores: Zhizheng Zhang, Xiaoyi Zhang, Wenxuan Xie, Yan Lu
cs.AI
Resumo
O recente sucesso dos Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês) representa um avanço impressionante em direção à inteligência artificial geral. Eles têm demonstrado uma perspectiva promissora na conclusão automática de tarefas com base nas instruções dos usuários, funcionando como coordenadores semelhantes ao cérebro humano. Os riscos associados serão revelados à medida que delegamos um número crescente de tarefas às máquinas para conclusão automatizada. Surge então uma grande questão: como podemos fazer com que as máquinas ajam de forma responsável ao ajudar os humanos a automatizar tarefas como copilotos pessoais? Neste artigo, exploramos essa questão em profundidade sob as perspectivas de viabilidade, completude e segurança. Especificamente, apresentamos a Automação de Tarefas Responsável (ResponsibleTA, em inglês) como um framework fundamental para facilitar a colaboração responsável entre coordenadores baseados em LLMs e executores para a automação de tarefas, com três capacidades habilitadas: 1) prever a viabilidade dos comandos para os executores; 2) verificar a completude dos executores; 3) aprimorar a segurança (por exemplo, a proteção da privacidade dos usuários). Além disso, propomos e comparamos dois paradigmas para implementar as duas primeiras capacidades. Um deles é aproveitar o conhecimento genérico dos próprios LLMs por meio de engenharia de prompts, enquanto o outro é adotar modelos específicos de domínio que podem ser aprendidos. Adicionalmente, introduzimos um mecanismo de memória local para alcançar a terceira capacidade. Avaliamos nossa proposta de ResponsibleTA na automação de tarefas de interface do usuário (UI) e esperamos que ela possa atrair mais atenção para garantir que os LLMs sejam mais responsáveis em diversos cenários. A página inicial do projeto de pesquisa está disponível em https://task-automation-research.github.io/responsible_task_automation.
English
The recent success of Large Language Models (LLMs) signifies an impressive
stride towards artificial general intelligence. They have shown a promising
prospect in automatically completing tasks upon user instructions, functioning
as brain-like coordinators. The associated risks will be revealed as we
delegate an increasing number of tasks to machines for automated completion. A
big question emerges: how can we make machines behave responsibly when helping
humans automate tasks as personal copilots? In this paper, we explore this
question in depth from the perspectives of feasibility, completeness and
security. In specific, we present Responsible Task Automation (ResponsibleTA)
as a fundamental framework to facilitate responsible collaboration between
LLM-based coordinators and executors for task automation with three empowered
capabilities: 1) predicting the feasibility of the commands for executors; 2)
verifying the completeness of executors; 3) enhancing the security (e.g., the
protection of users' privacy). We further propose and compare two paradigms for
implementing the first two capabilities. One is to leverage the generic
knowledge of LLMs themselves via prompt engineering while the other is to adopt
domain-specific learnable models. Moreover, we introduce a local memory
mechanism for achieving the third capability. We evaluate our proposed
ResponsibleTA on UI task automation and hope it could bring more attentions to
ensuring LLMs more responsible in diverse scenarios. The research project
homepage is at
https://task-automation-research.github.io/responsible_task_automation.