Malentendidos Fundamentados en el Diálogo Asimétrico: Un Esquema de Anotación Perspectivista para MapTask
Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
November 5, 2025
Autores: Nan Li, Albert Gatt, Massimo Poesio
cs.AI
Resumen
El diálogo colaborativo depende de que los participantes establezcan incrementalmente un terreno común, sin embargo, en entornos asimétricos pueden creer que están de acuerdo mientras se refieren a entidades diferentes. Introducimos un esquema de anotación perspectivista para el corpus HCRC MapTask (Anderson et al., 1991) que captura por separado las interpretaciones ancladas del hablante y del oyente para cada expresión referencial, permitiéndonos rastrear cómo surge, diverge y se repara la comprensión a lo largo del tiempo. Utilizando un pipeline de anotación con LLM restringido por el esquema, obtenemos 13k expresiones referenciales anotadas con estimaciones de confiabilidad y analizamos los estados de comprensión resultantes. Los resultados muestran que los malentendidos completos son raros una vez que se unifican las variantes léxicas, pero las discrepancias de multiplicidad inducen sistemáticamente divergencias, revelando cómo una aparente base común puede enmascarar un desalineamiento referencial. Nuestro marco proporciona tanto un recurso como una lente analítica para estudiar los malentendidos anclados y para evaluar la capacidad de los (V)LLMs para modelar la construcción de base común dependiente de la perspectiva en el diálogo colaborativo.
English
Collaborative dialogue relies on participants incrementally establishing
common ground, yet in asymmetric settings they may believe they agree while
referring to different entities. We introduce a perspectivist annotation scheme
for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures
speaker and addressee grounded interpretations for each reference expression,
enabling us to trace how understanding emerges, diverges, and repairs over
time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k
annotated reference expressions with reliability estimates and analyze the
resulting understanding states. The results show that full misunderstandings
are rare once lexical variants are unified, but multiplicity discrepancies
systematically induce divergences, revealing how apparent grounding can mask
referential misalignment. Our framework provides both a resource and an
analytic lens for studying grounded misunderstanding and for evaluating
(V)LLMs' capacity to model perspective-dependent grounding in collaborative
dialogue.