Automatisation Responsable des Tâches : Donner aux Grands Modèles de Langage le Pouvoir d'Automatiser les Tâches de Manière Responsable
Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators
June 2, 2023
Auteurs: Zhizheng Zhang, Xiaoyi Zhang, Wenxuan Xie, Yan Lu
cs.AI
Résumé
Le récent succès des modèles de langage de grande taille (LLMs) marque une avancée impressionnante vers l'intelligence artificielle générale. Ils ont démontré un potentiel prometteur dans l'exécution automatique de tâches sur instruction des utilisateurs, fonctionnant comme des coordinateurs semblables à des cerveaux. Les risques associés se révéleront à mesure que nous déléguerons un nombre croissant de tâches aux machines pour une exécution automatisée. Une question cruciale émerge : comment pouvons-nous faire en sorte que les machines se comportent de manière responsable lorsqu'elles aident les humains à automatiser des tâches en tant que copilots personnels ? Dans cet article, nous explorons cette question en profondeur sous les angles de la faisabilité, de l'exhaustivité et de la sécurité. Plus précisément, nous présentons l'Automatisation Responsable des Tâches (ResponsibleTA) comme un cadre fondamental pour faciliter une collaboration responsable entre les coordinateurs et les exécuteurs basés sur des LLMs pour l'automatisation des tâches, avec trois capacités renforcées : 1) prédire la faisabilité des commandes pour les exécuteurs ; 2) vérifier l'exhaustivité des exécuteurs ; 3) renforcer la sécurité (par exemple, la protection de la vie privée des utilisateurs). Nous proposons et comparons en outre deux paradigmes pour mettre en œuvre les deux premières capacités. L'un consiste à exploiter les connaissances génériques des LLMs eux-mêmes via l'ingénierie des prompts, tandis que l'autre consiste à adopter des modèles apprenables spécifiques à un domaine. De plus, nous introduisons un mécanisme de mémoire locale pour atteindre la troisième capacité. Nous évaluons notre proposition de ResponsibleTA sur l'automatisation des tâches d'interface utilisateur et espérons qu'elle pourra attirer davantage d'attention sur la nécessité de rendre les LLMs plus responsables dans divers scénarios. La page d'accueil du projet de recherche est disponible à l'adresse suivante : https://task-automation-research.github.io/responsible_task_automation.
English
The recent success of Large Language Models (LLMs) signifies an impressive
stride towards artificial general intelligence. They have shown a promising
prospect in automatically completing tasks upon user instructions, functioning
as brain-like coordinators. The associated risks will be revealed as we
delegate an increasing number of tasks to machines for automated completion. A
big question emerges: how can we make machines behave responsibly when helping
humans automate tasks as personal copilots? In this paper, we explore this
question in depth from the perspectives of feasibility, completeness and
security. In specific, we present Responsible Task Automation (ResponsibleTA)
as a fundamental framework to facilitate responsible collaboration between
LLM-based coordinators and executors for task automation with three empowered
capabilities: 1) predicting the feasibility of the commands for executors; 2)
verifying the completeness of executors; 3) enhancing the security (e.g., the
protection of users' privacy). We further propose and compare two paradigms for
implementing the first two capabilities. One is to leverage the generic
knowledge of LLMs themselves via prompt engineering while the other is to adopt
domain-specific learnable models. Moreover, we introduce a local memory
mechanism for achieving the third capability. We evaluate our proposed
ResponsibleTA on UI task automation and hope it could bring more attentions to
ensuring LLMs more responsible in diverse scenarios. The research project
homepage is at
https://task-automation-research.github.io/responsible_task_automation.