Mal-entendidos Fundamentados no Diálogo Assimétrico: Um Esquema de Anotação Perspectivista para MapTask
Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
November 5, 2025
Autores: Nan Li, Albert Gatt, Massimo Poesio
cs.AI
Resumo
O diálogo colaborativo depende da construção incremental de terreno comum pelos participantes, contudo, em contextos assimétricos, estes podem acreditar que estão de acordo enquanto se referem a entidades diferentes. Introduzimos um esquema de anotação perspectivista para o corpus HCRC MapTask (Anderson et al., 1991) que captura separadamente as interpretações aterradas do falante e do ouvinte para cada expressão referencial, permitindo-nos rastrear como a compreensão emerge, diverge e é reparada ao longo do tempo. Utilizando um *pipeline* de anotação com LLM restrito ao esquema, obtivemos 13 mil expressões referenciais anotadas com estimativas de confiabilidade e analisámos os estados de compreensão resultantes. Os resultados mostram que os mal-entendidos completos são raros após a unificação de variantes lexicais, mas discrepâncias de multiplicidade induzem sistematicamente divergências, revelando como um aparente alinhamento pode mascarar um desacordo referencial. A nossa estrutura fornece tanto um recurso como uma lente analítica para estudar mal-entendidos no terreno comum e para avaliar a capacidade dos (V)LLMs em modelar o alinhamento dependente da perspetiva no diálogo colaborativo.
English
Collaborative dialogue relies on participants incrementally establishing
common ground, yet in asymmetric settings they may believe they agree while
referring to different entities. We introduce a perspectivist annotation scheme
for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures
speaker and addressee grounded interpretations for each reference expression,
enabling us to trace how understanding emerges, diverges, and repairs over
time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k
annotated reference expressions with reliability estimates and analyze the
resulting understanding states. The results show that full misunderstandings
are rare once lexical variants are unified, but multiplicity discrepancies
systematically induce divergences, revealing how apparent grounding can mask
referential misalignment. Our framework provides both a resource and an
analytic lens for studying grounded misunderstanding and for evaluating
(V)LLMs' capacity to model perspective-dependent grounding in collaborative
dialogue.