ChatPaper.aiChatPaper

Saber no es comprender: Reafirmando la proactividad generativa con perspectiva epistémica y conductual

Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight

February 16, 2026
Autores: Kirandeep Kaur, Xingda Lyu, Chirag Shah
cs.AI

Resumen

Los agentes de IA generativa equiparan la comprensión con la resolución de consultas explícitas, una suposición que confina la interacción a lo que los usuarios pueden articular. Esta suposición se desmorona cuando los usuarios mismos carecen de conciencia sobre lo que falta, es riesgoso o vale la pena considerar. En tales condiciones, la proactividad no es meramente una mejora de eficiencia, sino una necesidad epistémica. Nos referimos a esta condición como **incompletitud epistémica**: donde el progreso depende de interactuar con lo desconocido desconocido para una colaboración efectiva. Los enfoques existentes para la proactividad siguen siendo estrechamente anticipatorios, extrapolando del comportamiento pasado y presumiendo que los objetivos ya están bien definidos, fallando así en apoyar significativamente a los usuarios. Sin embargo, sacar a la luz posibilidades más allá de la conciencia actual de un usuario no es inherentemente beneficioso. Las intervenciones proactivas sin restricciones pueden desviar la atención, abrumar a los usuarios o introducir daños. Por lo tanto, los agentes proactivos requieren una **base conductual**: restricciones fundamentadas sobre cuándo, cómo y hasta qué punto un agente debe intervenir. Avanzamos la postura de que la proactividad generativa debe estar fundamentada tanto epistémica como conductualmente. Basándonos en la filosofía de la ignorancia y la investigación sobre el comportamiento proactivo, argumentamos que estas teorías ofrecen una guía crítica para diseñar agentes que puedan participar de manera responsable y fomentar colaboraciones significativas.
English
Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.
PDF01February 18, 2026