ChatPaper.aiChatPaper

Интеграция теории сознания в социально интеллектуальные агенты на основе больших языковых моделей

Infusing Theory of Mind into Socially Intelligent LLM Agents

September 26, 2025
Авторы: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI

Аннотация

Теория сознания (Theory of Mind, ToM) — понимание ментальных состояний других людей — является ключевым аспектом человеческого социального интеллекта. Однако чат-боты и социальные агенты, основанные на больших языковых моделях (LLM), обычно не интегрируют её. В данной работе мы демонстрируем, что LLM, которые явно используют ToM, достигают лучших результатов в диалогах, эффективнее достигая поставленных целей. Показав, что простое побуждение моделей генерировать ментальные состояния между репликами уже приносит значительную пользу, мы представляем ToMAgent (ToMA) — диалогового агента, ориентированного на ToM. ToMA обучается путём сочетания ToM с предварительным анализом диалога для создания ментальных состояний, максимально полезных для достижения целей диалога. Эксперименты на интерактивном социальном бенчмарке Sotopia демонстрируют эффективность нашего метода по сравнению с рядом базовых подходов. Комплексный анализ показывает, что ToMA демонстрирует более стратегическое и целенаправленное поведение, что позволяет адаптироваться к долгосрочным задачам, одновременно поддерживая более качественные отношения с партнёрами. Наши результаты указывают на шаг вперёд в интеграции ToM для создания социально интеллектуальных агентов на основе LLM.
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key aspect of human social intelligence, yet, chatbots and LLM-based social agents do not typically integrate it. In this work, we demonstrate that LLMs that explicitly use ToM get better at dialogue, achieving goals more effectively. After showing that simply prompting models to generate mental states between dialogue turns already provides significant benefit, we further introduce ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM with dialogue lookahead to produce mental states that are maximally useful for achieving dialogue goals. Experiments on the Sotopia interactive social evaluation benchmark demonstrate the effectiveness of our method over a range of baselines. Comprehensive analysis shows that ToMA exhibits more strategic, goal-oriented reasoning behaviors, which enable long-horizon adaptation, while maintaining better relationships with their partners. Our results suggest a step forward in integrating ToM for building socially intelligent LLM agents.
PDF52October 2, 2025