BEDA: Оценка убеждений как вероятностные ограничения для выполнения стратегических диалоговых актов
BEDA: Belief Estimation as Probabilistic Constraints for Performing Strategic Dialogue Acts
December 31, 2025
Авторы: Hengli Li, Zhaoxin Yu, Qi Shen, Chenxi Li, Mengmeng Wang, Tinglang Wu, Yipeng Kang, Yuxuan Wang, Song-Chun Zhu, Zixia Jia, Zilong Zheng
cs.AI
Аннотация
Для ведения стратегического диалога агентам необходимо выполнять различные речевые акты, для чего критически важна оценка убеждений. Хотя предыдущие работы часто точно оценивают убеждения, в них отсутствует принципиальный механизм использования этих убеждений в процессе генерации. Мы устраняем этот разрыв, сначала формализуя два ключевых акта — Антагонистический и Согласующий, — и операционализируя их с помощью вероятностных ограничений на то, что агент может сгенерировать. Мы реализуем эту идею в рамках BEDA — системы, которая включает набор мировых состояний, оценщик убеждений и условный генератор, выбирающий речевые акты и формирующий высказывания, согласованные с выведенными убеждениями. В трех сценариях — Условный Хранитель/Грабитель (CKBG, антагонистический), Общие друзья (MF, кооперативный) и CaSiNo (переговоры) — BEDA стабильно превосходит сильные базовые модели: в CKBG она повышает процент успеха как минимум на 5.0 пунктов для всех базовых архитектур и на 20.6 пунктов с GPT-4.1-nano; в Mutual Friends достигается среднее улучшение на 9.3 пункта; а в CaSiNo система достигает оптимальной сделки по сравнению со всеми базовыми моделями. Эти результаты показывают, что представление оценки убеждений в виде ограничений обеспечивает простой и универсальный механизм для надежного стратегического диалога.
English
Strategic dialogue requires agents to execute distinct dialogue acts, for which belief estimation is essential. While prior work often estimates beliefs accurately, it lacks a principled mechanism to use those beliefs during generation. We bridge this gap by first formalizing two core acts Adversarial and Alignment, and by operationalizing them via probabilistic constraints on what an agent may generate. We instantiate this idea in BEDA, a framework that consists of the world set, the belief estimator for belief estimation, and the conditional generator that selects acts and realizes utterances consistent with the inferred beliefs. Across three settings, Conditional Keeper Burglar (CKBG, adversarial), Mutual Friends (MF, cooperative), and CaSiNo (negotiation), BEDA consistently outperforms strong baselines: on CKBG it improves success rate by at least 5.0 points across backbones and by 20.6 points with GPT-4.1-nano; on Mutual Friends it achieves an average improvement of 9.3 points; and on CaSiNo it achieves the optimal deal relative to all baselines. These results indicate that casting belief estimation as constraints provides a simple, general mechanism for reliable strategic dialogue.