ChatPaper.aiChatPaper

Automazione Responsabile dei Compiti: Potenziare i Modelli Linguistici di Grande Scala come Automatori Responsabili dei Compiti

Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators

June 2, 2023
Autori: Zhizheng Zhang, Xiaoyi Zhang, Wenxuan Xie, Yan Lu
cs.AI

Abstract

Il recente successo dei Large Language Models (LLM) rappresenta un passo significativo verso l'intelligenza artificiale generale. Questi modelli hanno dimostrato una prospettiva promettente nel completare automaticamente le attività in base alle istruzioni dell'utente, fungendo da coordinatori simili a un cervello. I rischi associati emergeranno man mano che deleghiamo un numero crescente di attività alle macchine per il completamento automatizzato. Sorge una grande domanda: come possiamo fare in modo che le macchine si comportino in modo responsabile quando aiutano gli esseri umani ad automatizzare le attività come copiloti personali? In questo articolo, esploriamo questa domanda in profondità dalle prospettive della fattibilità, della completezza e della sicurezza. In particolare, presentiamo Responsible Task Automation (ResponsibleTA) come un framework fondamentale per facilitare una collaborazione responsabile tra coordinatori basati su LLM ed esecutori per l'automazione delle attività, con tre capacità potenziate: 1) prevedere la fattibilità dei comandi per gli esecutori; 2) verificare la completezza degli esecutori; 3) migliorare la sicurezza (ad esempio, la protezione della privacy degli utenti). Proponiamo inoltre e confrontiamo due paradigmi per implementare le prime due capacità. Uno consiste nel sfruttare la conoscenza generica degli LLM stessi attraverso l'ingegneria dei prompt, mentre l'altro consiste nell'adottare modelli apprendibili specifici per dominio. Inoltre, introduciamo un meccanismo di memoria locale per raggiungere la terza capacità. Valutiamo il nostro ResponsibleTA proposto sull'automazione delle attività dell'interfaccia utente e speriamo che possa attirare maggiore attenzione verso il rendere gli LLM più responsabili in diversi scenari. La homepage del progetto di ricerca è disponibile all'indirizzo https://task-automation-research.github.io/responsible_task_automation.
English
The recent success of Large Language Models (LLMs) signifies an impressive stride towards artificial general intelligence. They have shown a promising prospect in automatically completing tasks upon user instructions, functioning as brain-like coordinators. The associated risks will be revealed as we delegate an increasing number of tasks to machines for automated completion. A big question emerges: how can we make machines behave responsibly when helping humans automate tasks as personal copilots? In this paper, we explore this question in depth from the perspectives of feasibility, completeness and security. In specific, we present Responsible Task Automation (ResponsibleTA) as a fundamental framework to facilitate responsible collaboration between LLM-based coordinators and executors for task automation with three empowered capabilities: 1) predicting the feasibility of the commands for executors; 2) verifying the completeness of executors; 3) enhancing the security (e.g., the protection of users' privacy). We further propose and compare two paradigms for implementing the first two capabilities. One is to leverage the generic knowledge of LLMs themselves via prompt engineering while the other is to adopt domain-specific learnable models. Moreover, we introduce a local memory mechanism for achieving the third capability. We evaluate our proposed ResponsibleTA on UI task automation and hope it could bring more attentions to ensuring LLMs more responsible in diverse scenarios. The research project homepage is at https://task-automation-research.github.io/responsible_task_automation.
PDF20March 25, 2026