Intégration de la théorie de l'esprit dans les agents LLM socialement intelligents
Infusing Theory of Mind into Socially Intelligent LLM Agents
September 26, 2025
papers.authors: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI
papers.abstract
La théorie de l'esprit (ToM) – la compréhension des états mentaux d'autrui – est un aspect clé de l'intelligence sociale humaine. Pourtant, les chatbots et les agents sociaux basés sur des modèles de langage (LLM) ne l'intègrent généralement pas. Dans ce travail, nous démontrons que les LLM qui utilisent explicitement la ToM améliorent leurs performances en dialogue, atteignant leurs objectifs plus efficacement. Après avoir montré que le simple fait d'inciter les modèles à générer des états mentaux entre les tours de dialogue apporte déjà un bénéfice significatif, nous introduisons ToMAgent (ToMA), un agent de dialogue centré sur la ToM. ToMA est entraîné en associant la ToM à une anticipation du dialogue pour produire des états mentaux maximisant l'utilité pour atteindre les objectifs du dialogue. Les expériences menées sur le benchmark d'évaluation sociale interactive Sotopia démontrent l'efficacité de notre méthode par rapport à une gamme de références. Une analyse approfondie montre que ToMA adopte des comportements de raisonnement plus stratégiques et orientés vers les objectifs, permettant une adaptation à long terme tout en maintenant de meilleures relations avec ses partenaires. Nos résultats suggèrent une avancée dans l'intégration de la ToM pour la construction d'agents LLM socialement intelligents.
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key
aspect of human social intelligence, yet, chatbots and LLM-based social agents
do not typically integrate it. In this work, we demonstrate that LLMs that
explicitly use ToM get better at dialogue, achieving goals more effectively.
After showing that simply prompting models to generate mental states between
dialogue turns already provides significant benefit, we further introduce
ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM
with dialogue lookahead to produce mental states that are maximally useful for
achieving dialogue goals. Experiments on the Sotopia interactive social
evaluation benchmark demonstrate the effectiveness of our method over a range
of baselines. Comprehensive analysis shows that ToMA exhibits more strategic,
goal-oriented reasoning behaviors, which enable long-horizon adaptation, while
maintaining better relationships with their partners. Our results suggest a
step forward in integrating ToM for building socially intelligent LLM agents.