ChatPaper.aiChatPaper

Sapere non è comprendere: riancorare la proattività generativa attraverso la prospettiva epistemica e comportamentale

Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight

February 16, 2026
Autori: Kirandeep Kaur, Xingda Lyu, Chirag Shah
cs.AI

Abstract

Gli agenti di intelligenza artificiale generativa equiparano la comprensione alla risoluzione di richieste esplicite, un presupposto che confina l'interazione a ciò che gli utenti sono in grado di articolare. Questo presupposto cessa di valere quando sono gli utenti stessi a non essere consapevoli di ciò che manca, di ciò che è rischioso o di ciò che vale la pena considerare. In tali condizioni, la proattività non è solo un miglioramento dell'efficienza, ma una necessità epistemica. Definiamo questa condizione come incompletezza epistemica: una situazione in cui il progresso dipende dall'impegnarsi con le "incognite sconosciute" per una partnership efficace. Gli approcci esistenti alla proattività rimangono strettamente anticipatori, estrapolando dal comportamento passato e presumendo che gli obiettivi siano già ben definiti, fallendo così nel supportare significativamente gli utenti. Tuttavia, portare alla luce possibilità oltre la consapevolezza attuale di un utente non è di per sé benefico. Interventi proattivi privi di vincoli possono dirottare l'attenzione, sopraffare gli utenti o introdurre danni. Gli agenti proattivi richiedono pertanto un ancoraggio comportamentale: vincoli principiati su quando, come e in quale misura un agente dovrebbe intervenire. Avanziamo la tesi che la proattività generativa debba essere ancorata sia epistemicamente che comportamentalmente. Attingendo dalla filosofia dell'ignoranza e dalla ricerca sul comportamento proattivo, sosteniamo che queste teorie offrono una guida cruciale per progettare agenti in grado di agire in modo responsabile e favorire partnership significative.
English
Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.
PDF01February 18, 2026