Знание — это не понимание: переосмысление генеративной проактивности через призму эпистемических и поведенческих инсайтов
Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight
February 16, 2026
Авторы: Kirandeep Kaur, Xingda Lyu, Chirag Shah
cs.AI
Аннотация
Генеративные ИИ-агенты отождествляют понимание с разрешением явных запросов — предположение, которое сводит взаимодействие к тому, что пользователи способны вербализовать. Это предположение рушится, когда сами пользователи не осознают, чего им не хватает, что сопряжено с риском или заслуживает рассмотрения. В таких условиях проактивность — это не просто повышение эффективности, а эпистемическая необходимость. Мы называем это состояние *эпистемической неполнотой*: ситуацией, когда прогресс зависит от взаимодействия с неизвестными неизвестными для эффективного партнерства. Существующие подходы к проактивности остаются узко ориентированными на предсказание, экстраполируя прошлое поведение и предполагая, что цели уже четко определены, что не позволяет оказывать пользователям содержательную поддержку. Однако выявление возможностей, выходящих за пределы текущего осознания пользователя, не является само по себе благом. Неограниченные проактивные вмешательства могут отвлекать внимание, перегружать пользователей или причинять вред. Следовательно, проактивные агенты требуют *поведенческой обоснованности*: принципиальных ограничений на то, когда, как и в какой степени агенту следует вмешиваться. Мы отстаиваем позицию, что генеративная проактивность должна быть обоснована как эпистемически, так и поведенчески. Опираясь на философию незнания и исследования проактивного поведения, мы утверждаем, что эти теории предлагают ключевые ориентиры для проектирования агентов, способных к ответственному взаимодействию и формированию содержательных партнерств.
English
Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.