ChatPaper.aiChatPaper

Malentendidos Fundamentados en el Diálogo Asimétrico: Un Esquema de Anotación Perspectivista para MapTask

Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask

November 5, 2025
Autores: Nan Li, Albert Gatt, Massimo Poesio
cs.AI

Resumen

El diálogo colaborativo depende de que los participantes establezcan incrementalmente un terreno común, sin embargo, en entornos asimétricos pueden creer que están de acuerdo mientras se refieren a entidades diferentes. Introducimos un esquema de anotación perspectivista para el corpus HCRC MapTask (Anderson et al., 1991) que captura por separado las interpretaciones ancladas del hablante y del oyente para cada expresión referencial, permitiéndonos rastrear cómo surge, diverge y se repara la comprensión a lo largo del tiempo. Utilizando un pipeline de anotación con LLM restringido por el esquema, obtenemos 13k expresiones referenciales anotadas con estimaciones de confiabilidad y analizamos los estados de comprensión resultantes. Los resultados muestran que los malentendidos completos son raros una vez que se unifican las variantes léxicas, pero las discrepancias de multiplicidad inducen sistemáticamente divergencias, revelando cómo una aparente base común puede enmascarar un desalineamiento referencial. Nuestro marco proporciona tanto un recurso como una lente analítica para estudiar los malentendidos anclados y para evaluar la capacidad de los (V)LLMs para modelar la construcción de base común dependiente de la perspectiva en el diálogo colaborativo.
English
Collaborative dialogue relies on participants incrementally establishing common ground, yet in asymmetric settings they may believe they agree while referring to different entities. We introduce a perspectivist annotation scheme for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures speaker and addressee grounded interpretations for each reference expression, enabling us to trace how understanding emerges, diverges, and repairs over time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k annotated reference expressions with reliability estimates and analyze the resulting understanding states. The results show that full misunderstandings are rare once lexical variants are unified, but multiplicity discrepancies systematically induce divergences, revealing how apparent grounding can mask referential misalignment. Our framework provides both a resource and an analytic lens for studying grounded misunderstanding and for evaluating (V)LLMs' capacity to model perspective-dependent grounding in collaborative dialogue.
PDF32December 1, 2025