ChatPaper.aiChatPaper

Обоснованные недопонимания в асимметричном диалоге: перспективистская схема аннотации для задачи картографирования

Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask

November 5, 2025
Авторы: Nan Li, Albert Gatt, Massimo Poesio
cs.AI

Аннотация

Коллаборативный диалог основывается на постепенном установлении общего контекста участниками, однако в асимметричных условиях они могут полагать, что достигли согласия, в то время как ссылаются на разные сущности. Мы представляем перспективистскую схему разметки для корпуса HCRC MapTask (Anderson et al., 1991), которая отдельно фиксирует интерпретации, закрепленные за говорящим и адресатом, для каждой референциальной выражения, позволяя отслеживать, как понимание возникает, расходится и восстанавливается во времени. Используя конвейер разметки с помощью LLM, ограниченный схемой, мы получаем 13 тыс. размеченных референциальных выражений с оценками надежности и анализируем результирующие состояния понимания. Результаты показывают, что полные недопонимания редки после унификации лексических вариантов, но расхождения в множественности систематически приводят к дивергенциям, раскрывая, как видимое закрепление контекста может маскировать референциальное несоответствие. Наша система предоставляет как ресурс, так и аналитический инструмент для изучения закрепленных недопониманий и для оценки способности (V)LLM моделировать зависящее от перспективы закрепление контекста в коллаборативном диалоге.
English
Collaborative dialogue relies on participants incrementally establishing common ground, yet in asymmetric settings they may believe they agree while referring to different entities. We introduce a perspectivist annotation scheme for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures speaker and addressee grounded interpretations for each reference expression, enabling us to trace how understanding emerges, diverges, and repairs over time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k annotated reference expressions with reliability estimates and analyze the resulting understanding states. The results show that full misunderstandings are rare once lexical variants are unified, but multiplicity discrepancies systematically induce divergences, revealing how apparent grounding can mask referential misalignment. Our framework provides both a resource and an analytic lens for studying grounded misunderstanding and for evaluating (V)LLMs' capacity to model perspective-dependent grounding in collaborative dialogue.
PDF32December 1, 2025