ChatPaper.aiChatPaper

Weten is nog geen begrip: De proactiviteit van generatieve AI opnieuw verankeren met epistemisch en gedragsmatig inzicht

Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight

February 16, 2026
Auteurs: Kirandeep Kaur, Xingda Lyu, Chirag Shah
cs.AI

Samenvatting

Generatieve AI-agenten stellen begrip gelijk aan het oplossen van expliciete vragen, een aanname die interactie beperkt tot wat gebruikers kunnen verwoorden. Deze aanname houdt geen stand wanneer gebruikers zelf niet bewust zijn van wat ontbreekt, riskant is of de moeite waard is om te overwegen. Onder dergelijke omstandigheden is proactiviteit niet louter een efficiëntieverbetering, maar een epistemische noodzaak. Wij verwijzen naar deze conditie als *epistemische onvolledigheid*: situaties waarin vooruitgang afhangt van het betreden van het domein van de onbekende onbekenden om een effectieve partnerschap aan te gaan. Bestaande benaderingen van proactiviteit blijven beperkt tot anticiperend gedrag, waarbij wordt geëxtrapoleerd uit eerder gedrag en wordt aangenomen dat doelen reeds duidelijk zijn gedefinieerd, waardoor ze gebruikers niet zinvol ondersteunen. Het tonen van mogelijkheden die buiten het huidige bewustzijn van een gebruiker vallen, is echter niet inherent gunstig. Ongebreidelde proactieve interventies kunnen de aandacht misleiden, gebruikers overweldigen of schade veroorzaken. Proactieve agenten vereisen daarom *gedragsmatige verankering*: principiële beperkingen voor wanneer, hoe en in welke mate een agent moet ingrijpen. Wij beargumenteren de positie dat generatieve proactiviteit zowel epistemisch als gedragsmatig verankerd moet zijn. Putting uit de filosofie van onwetendheid en onderzoek naar proactief gedrag, stellen wij dat deze theorieën essentiële richtlijnen bieden voor het ontwerpen van agenten die verantwoordelijk kunnen handelen en zinvolle partnerschappen kunnen bevorderen.
English
Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.
PDF01February 18, 2026