Het integreren van Theory of Mind in sociaal intelligente LLM-agenten
Infusing Theory of Mind into Socially Intelligent LLM Agents
September 26, 2025
Auteurs: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI
Samenvatting
Theory of Mind (ToM) – het begrijpen van de mentale toestanden van anderen – is een belangrijk aspect van menselijke sociale intelligentie, maar chatbots en sociale agents gebaseerd op grote taalmodelen (LLM’s) integreren dit doorgaans niet. In dit werk tonen we aan dat LLM’s die ToM expliciet gebruiken beter worden in dialoog en doelen effectiever bereiken. Nadat we aantonen dat het simpelweg aanmoedigen van modellen om mentale toestanden te genereren tussen dialoogwisselingen al aanzienlijke voordelen biedt, introduceren we verder ToMAgent (ToMA), een dialoogagent die gericht is op ToM. ToMA wordt getraind door ToM te combineren met dialoogvooruitblik om mentale toestanden te produceren die maximaal nuttig zijn voor het bereiken van dialoogdoelen. Experimenten op de Sotopia interactieve sociale evaluatiebenchmark demonstreren de effectiviteit van onze methode ten opzichte van een reeks baselines. Uitgebreide analyse laat zien dat ToMA meer strategisch, doelgericht redeneergedrag vertoont, wat langetermijnaanpassing mogelijk maakt, terwijl het betere relaties onderhoudt met zijn partners. Onze resultaten suggereren een stap voorwaarts in het integreren van ToM voor het bouwen van sociaal intelligente LLM-agents.
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key
aspect of human social intelligence, yet, chatbots and LLM-based social agents
do not typically integrate it. In this work, we demonstrate that LLMs that
explicitly use ToM get better at dialogue, achieving goals more effectively.
After showing that simply prompting models to generate mental states between
dialogue turns already provides significant benefit, we further introduce
ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM
with dialogue lookahead to produce mental states that are maximally useful for
achieving dialogue goals. Experiments on the Sotopia interactive social
evaluation benchmark demonstrate the effectiveness of our method over a range
of baselines. Comprehensive analysis shows that ToMA exhibits more strategic,
goal-oriented reasoning behaviors, which enable long-horizon adaptation, while
maintaining better relationships with their partners. Our results suggest a
step forward in integrating ToM for building socially intelligent LLM agents.