ChatPaper.aiChatPaper

Malentendus Fondés dans le Dialogue Asymétrique : Un Schéma d'Annotation Perspectiviste pour la Tâche Cartographique

Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask

November 5, 2025
papers.authors: Nan Li, Albert Gatt, Massimo Poesio
cs.AI

papers.abstract

Le dialogue collaboratif repose sur l'établissement progressif d'un terrain d'entente par les participants, mais dans des contextes asymétriques, ils peuvent croire être d'accord tout en référant à des entités différentes. Nous introduisons un schéma d'annotation perspectiviste pour le corpus HCRC MapTask (Anderson et al., 1991) qui capture séparément les interprétations ancrées du locuteur et du destinataire pour chaque expression référentielle, nous permettant de retracer comment la compréhension émerge, diverge et se répare dans le temps. En utilisant un pipeline d'annotation par LLM contraint par le schéma, nous obtenons 13k expressions référentielles annotées avec des estimations de fiabilité et analysons les états de compréhension résultants. Les résultats montrent que les incompréhensions complètes sont rares une fois les variantes lexicales unifiées, mais que les divergences multiplicatives induisent systématiquement des écarts, révélant comment un ancrage apparent peut masquer un désalignement référentiel. Notre cadre fournit à la fois une ressource et une lentille analytique pour étudier les incompréhensions ancrées et pour évaluer la capacité des (V)LLM à modéliser l'ancrage dépendant de la perspective dans le dialogue collaboratif.
English
Collaborative dialogue relies on participants incrementally establishing common ground, yet in asymmetric settings they may believe they agree while referring to different entities. We introduce a perspectivist annotation scheme for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures speaker and addressee grounded interpretations for each reference expression, enabling us to trace how understanding emerges, diverges, and repairs over time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k annotated reference expressions with reliability estimates and analyze the resulting understanding states. The results show that full misunderstandings are rare once lexical variants are unified, but multiplicity discrepancies systematically induce divergences, revealing how apparent grounding can mask referential misalignment. Our framework provides both a resource and an analytic lens for studying grounded misunderstanding and for evaluating (V)LLMs' capacity to model perspective-dependent grounding in collaborative dialogue.
PDF32December 1, 2025