ChatPaper.aiChatPaper

Automatización Responsable de Tareas: Capacitando a los Modelos de Lenguaje de Gran Escala como Automatizadores Responsables de Tareas

Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators

June 2, 2023
Autores: Zhizheng Zhang, Xiaoyi Zhang, Wenxuan Xie, Yan Lu
cs.AI

Resumen

El reciente éxito de los Modelos de Lenguaje a Gran Escala (LLMs, por sus siglas en inglés) representa un avance impresionante hacia la inteligencia artificial general. Han demostrado un panorama prometedor al completar automáticamente tareas siguiendo instrucciones del usuario, funcionando como coordinadores similares a un cerebro. Los riesgos asociados se revelarán a medida que deleguemos un número creciente de tareas a las máquinas para su finalización automatizada. Surge una gran pregunta: ¿cómo podemos hacer que las máquinas se comporten de manera responsable al ayudar a los humanos a automatizar tareas como copilotos personales? En este artículo, exploramos esta pregunta en profundidad desde las perspectivas de viabilidad, completitud y seguridad. En concreto, presentamos la Automatización Responsable de Tareas (ResponsibleTA) como un marco fundamental para facilitar la colaboración responsable entre coordinadores y ejecutores basados en LLMs para la automatización de tareas, con tres capacidades potenciadas: 1) predecir la viabilidad de los comandos para los ejecutores; 2) verificar la completitud de los ejecutores; 3) mejorar la seguridad (por ejemplo, la protección de la privacidad de los usuarios). Además, proponemos y comparamos dos paradigmas para implementar las dos primeras capacidades. Uno es aprovechar el conocimiento genérico de los propios LLMs mediante ingeniería de prompts, mientras que el otro es adoptar modelos aprendibles específicos del dominio. Asimismo, introducimos un mecanismo de memoria local para lograr la tercera capacidad. Evaluamos nuestra propuesta ResponsibleTA en la automatización de tareas de interfaz de usuario (UI) y esperamos que pueda atraer más atención hacia la garantía de que los LLMs sean más responsables en diversos escenarios. La página principal del proyecto de investigación se encuentra en https://task-automation-research.github.io/responsible_task_automation.
English
The recent success of Large Language Models (LLMs) signifies an impressive stride towards artificial general intelligence. They have shown a promising prospect in automatically completing tasks upon user instructions, functioning as brain-like coordinators. The associated risks will be revealed as we delegate an increasing number of tasks to machines for automated completion. A big question emerges: how can we make machines behave responsibly when helping humans automate tasks as personal copilots? In this paper, we explore this question in depth from the perspectives of feasibility, completeness and security. In specific, we present Responsible Task Automation (ResponsibleTA) as a fundamental framework to facilitate responsible collaboration between LLM-based coordinators and executors for task automation with three empowered capabilities: 1) predicting the feasibility of the commands for executors; 2) verifying the completeness of executors; 3) enhancing the security (e.g., the protection of users' privacy). We further propose and compare two paradigms for implementing the first two capabilities. One is to leverage the generic knowledge of LLMs themselves via prompt engineering while the other is to adopt domain-specific learnable models. Moreover, we introduce a local memory mechanism for achieving the third capability. We evaluate our proposed ResponsibleTA on UI task automation and hope it could bring more attentions to ensuring LLMs more responsible in diverse scenarios. The research project homepage is at https://task-automation-research.github.io/responsible_task_automation.
PDF20December 15, 2024