Savoir n'est pas comprendre : Recontextualiser la proactivité générative par une perspective épistémique et comportementale
Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight
February 16, 2026
papers.authors: Kirandeep Kaur, Xingda Lyu, Chirag Shah
cs.AI
papers.abstract
Les agents d'IA générative assimilent la compréhension à la résolution de requêtes explicites, un postulat qui confine l'interaction à ce que les utilisateurs peuvent formuler. Ce postulat s'effondre lorsque les utilisateurs eux-mêmes n'ont pas conscience de ce qui manque, de ce qui est risqué ou mérite d'être considéré. Dans de telles conditions, la proactivité n'est pas seulement une amélioration de l'efficacité, mais une nécessité épistémique. Nous qualifions cette situation d'**incomplétude épistémique** : un état où le progrès dépend de la capacité à appréhender les « inconnus inconnus » pour établir un partenariat efficace.
Les approches existantes de la proactivité restent étroitement anticipatrices, extrapolant à partir des comportements passés et présumant que les objectifs sont déjà bien définis, échouant ainsi à soutenir les utilisateurs de manière significative. Cependant, révéler des possibilités au-delà de la conscience immédiate de l'utilisateur n'est pas intrinsèquement bénéfique. Des interventions proactives non contraintes peuvent détourner l'attention, submerger les utilisateurs ou causer des préjudices.
Les agents proactifs nécessitent donc un **ancrage comportemental** : des contraintes de principe sur le moment, la manière et la mesure dans laquelle un agent doit intervenir. Nous défendons la position que la proactivité générative doit être ancrée à la fois épistémiquement et comportementalement. En nous appuyant sur la philosophie de l'ignorance et la recherche sur le comportement proactif, nous soutenons que ces théories offrent des orientations essentielles pour concevoir des agents capables d'interagir de manière responsable et de favoriser des partenariats constructifs.
English
Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.