Die Integration der Theory of Mind in sozial intelligente LLM-Agenten
Infusing Theory of Mind into Socially Intelligent LLM Agents
September 26, 2025
papers.authors: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI
papers.abstract
Die Theory of Mind (ToM) – das Verständnis der mentalen Zustände anderer – ist ein zentraler Aspekt der menschlichen sozialen Intelligenz, doch Chatbots und auf großen Sprachmodellen (LLMs) basierende soziale Agenten integrieren sie typischerweise nicht. In dieser Arbeit zeigen wir, dass LLMs, die ToM explizit nutzen, bessere Dialogfähigkeiten entwickeln und Ziele effektiver erreichen. Nachdem wir demonstriert haben, dass bereits das einfache Anregen von Modellen, mentale Zustände zwischen Dialogwechseln zu generieren, signifikante Vorteile bietet, führen wir weiterhin ToMAgent (ToMA) ein, einen auf ToM fokussierten Dialogagenten. ToMA wird trainiert, indem ToM mit Dialogvorausschau kombiniert wird, um mentale Zustände zu erzeugen, die maximal nützlich für das Erreichen von Dialogzielen sind. Experimente auf dem interaktiven sozialen Evaluationsbenchmark Sotopia demonstrieren die Wirksamkeit unserer Methode im Vergleich zu einer Reihe von Baselines. Eine umfassende Analyse zeigt, dass ToMA strategischere, zielorientierte Denkweisen aufweist, die eine langfristige Anpassung ermöglichen, während gleichzeitig bessere Beziehungen zu den Dialogpartnern aufrechterhalten werden. Unsere Ergebnisse deuten auf einen Fortschritt bei der Integration von ToM hin, um sozial intelligente LLM-Agenten zu entwickeln.
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key
aspect of human social intelligence, yet, chatbots and LLM-based social agents
do not typically integrate it. In this work, we demonstrate that LLMs that
explicitly use ToM get better at dialogue, achieving goals more effectively.
After showing that simply prompting models to generate mental states between
dialogue turns already provides significant benefit, we further introduce
ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM
with dialogue lookahead to produce mental states that are maximally useful for
achieving dialogue goals. Experiments on the Sotopia interactive social
evaluation benchmark demonstrate the effectiveness of our method over a range
of baselines. Comprehensive analysis shows that ToMA exhibits more strategic,
goal-oriented reasoning behaviors, which enable long-horizon adaptation, while
maintaining better relationships with their partners. Our results suggest a
step forward in integrating ToM for building socially intelligent LLM agents.