Gegronde Misverstanden in Asymmetrische Dialoog: Een Perspectivistisch Annotatieschema voor MapTask
Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
November 5, 2025
Auteurs: Nan Li, Albert Gatt, Massimo Poesio
cs.AI
Samenvatting
Collaboratieve dialoog berust op deelnemers die geleidelijk aan gemeenschappelijke grond vestigen, maar in asymmetrische settings kunnen zij menen dat zij het eens zijn terwijl zij naar verschillende entiteiten verwijzen. Wij introduceren een perspectivistisch annotatieschema voor het HCRC MapTask-corpus (Anderson et al., 1991) dat de geïndividualiseerde, door de spreker en de aangesprokene verankerde interpretaties voor elke referentie-expressie apart vastlegt. Dit stelt ons in staat te traceren hoe begrip ontstaat, uiteenloopt en zich herstelt in de tijd. Met behulp van een schema-gestroomlijnd LLM-annotatieproces verkrijgen we 13.000 geannoteerde referentie-expressies met betrouwbaarheidsschattingen en analyseren we de resulterende begripstoestanden. De resultaten tonen aan dat volledige misverstanden zeldzaam zijn zodra lexicale varianten zijn gestandaardiseerd, maar dat multipliciteitsverschillen systematisch divergentie veroorzaken. Dit onthult hoe schijnbare afstemming referentiële misalignering kan maskeren. Ons raamwerk biedt zowel een bron als een analytische lens voor de studie van verankerde misverstanden en voor het evalueren van het vermogen van (V)LLM's om perspectiefafhankelijke afstemming in collaboratieve dialoog te modelleren.
English
Collaborative dialogue relies on participants incrementally establishing
common ground, yet in asymmetric settings they may believe they agree while
referring to different entities. We introduce a perspectivist annotation scheme
for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures
speaker and addressee grounded interpretations for each reference expression,
enabling us to trace how understanding emerges, diverges, and repairs over
time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k
annotated reference expressions with reliability estimates and analyze the
resulting understanding states. The results show that full misunderstandings
are rare once lexical variants are unified, but multiplicity discrepancies
systematically induce divergences, revealing how apparent grounding can mask
referential misalignment. Our framework provides both a resource and an
analytic lens for studying grounded misunderstanding and for evaluating
(V)LLMs' capacity to model perspective-dependent grounding in collaborative
dialogue.