Malentendus Fondés dans le Dialogue Asymétrique : Un Schéma d'Annotation Perspectiviste pour la Tâche Cartographique
Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
November 5, 2025
papers.authors: Nan Li, Albert Gatt, Massimo Poesio
cs.AI
papers.abstract
Le dialogue collaboratif repose sur l'établissement progressif d'un terrain d'entente par les participants, mais dans des contextes asymétriques, ils peuvent croire être d'accord tout en référant à des entités différentes. Nous introduisons un schéma d'annotation perspectiviste pour le corpus HCRC MapTask (Anderson et al., 1991) qui capture séparément les interprétations ancrées du locuteur et du destinataire pour chaque expression référentielle, nous permettant de retracer comment la compréhension émerge, diverge et se répare dans le temps. En utilisant un pipeline d'annotation par LLM contraint par le schéma, nous obtenons 13k expressions référentielles annotées avec des estimations de fiabilité et analysons les états de compréhension résultants. Les résultats montrent que les incompréhensions complètes sont rares une fois les variantes lexicales unifiées, mais que les divergences multiplicatives induisent systématiquement des écarts, révélant comment un ancrage apparent peut masquer un désalignement référentiel. Notre cadre fournit à la fois une ressource et une lentille analytique pour étudier les incompréhensions ancrées et pour évaluer la capacité des (V)LLM à modéliser l'ancrage dépendant de la perspective dans le dialogue collaboratif.
English
Collaborative dialogue relies on participants incrementally establishing
common ground, yet in asymmetric settings they may believe they agree while
referring to different entities. We introduce a perspectivist annotation scheme
for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures
speaker and addressee grounded interpretations for each reference expression,
enabling us to trace how understanding emerges, diverges, and repairs over
time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k
annotated reference expressions with reliability estimates and analyze the
resulting understanding states. The results show that full misunderstandings
are rare once lexical variants are unified, but multiplicity discrepancies
systematically induce divergences, revealing how apparent grounding can mask
referential misalignment. Our framework provides both a resource and an
analytic lens for studying grounded misunderstanding and for evaluating
(V)LLMs' capacity to model perspective-dependent grounding in collaborative
dialogue.