ChatPaper.aiChatPaper

Saber Não é Compreender: Reancorando a Proatividade Gerativa com Percepção Epistêmica e Comportamental

Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight

February 16, 2026
Autores: Kirandeep Kaur, Xingda Lyu, Chirag Shah
cs.AI

Resumo

Os agentes de IA generativa equiparam a compreensão à resolução de consultas explícitas, uma suposição que confina a interação ao que os utilizadores conseguem articular. Esta suposição desmorona-se quando os próprios utilizadores não têm consciência do que está em falta, é arriscado ou vale a pena considerar. Nessas condições, a proatividade não é meramente um aumento de eficiência, mas uma necessidade epistémica. Referimo-nos a esta condição como incompletude epistémica: situações em que o progresso depende do envolvimento com "incógnitas desconhecidas" para uma parceria eficaz. As abordagens existentes para a proatividade mantêm-se estritamente antecipatórias, extrapolando a partir de comportamentos passados e presumindo que os objetivos já estão bem definidos, falhando assim em apoiar os utilizadores de forma significativa. No entanto, revelar possibilidades além da consciência atual do utilizador não é inerentemente benéfico. Intervenções proativas sem restrições podem desviar a atenção, sobrecarregar os utilizadores ou introduzir danos. Os agentes proativos requerem, portanto, uma base comportamental: restrições fundamentadas sobre quando, como e em que medida um agente deve intervir. Avançamos com a posição de que a proatividade generativa deve ser fundamentada tanto epistémica quanto comportamentalmente. Com base na filosofia da ignorância e na investigação sobre comportamento proativo, argumentamos que estas teorias oferecem orientação crítica para projetar agentes que possam envolver-se de forma responsável e fomentar parcerias significativas.
English
Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.
PDF01February 18, 2026