Infundir la Teoría de la Mente en Agentes de LLM Socialmente Inteligentes
Infusing Theory of Mind into Socially Intelligent LLM Agents
September 26, 2025
Autores: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI
Resumen
La Teoría de la Mente (ToM, por sus siglas en inglés), entendida como la capacidad de comprender los estados mentales de los demás, es un aspecto clave de la inteligencia social humana. Sin embargo, los chatbots y los agentes sociales basados en modelos de lenguaje de gran escala (LLM, por sus siglas en inglés) no suelen integrarla. En este trabajo, demostramos que los LLM que utilizan explícitamente la ToM mejoran en el diálogo, logrando sus objetivos de manera más efectiva. Tras mostrar que simplemente indicar a los modelos que generen estados mentales entre turnos de diálogo ya proporciona un beneficio significativo, presentamos ToMAgent (ToMA), un agente de diálogo centrado en la ToM. ToMA se entrena combinando la ToM con la anticipación de diálogo para producir estados mentales que sean máximamente útiles para alcanzar los objetivos del diálogo. Los experimentos realizados en el punto de referencia de evaluación social interactiva Sotopia demuestran la efectividad de nuestro método frente a una variedad de líneas base. Un análisis exhaustivo muestra que ToMA exhibe comportamientos de razonamiento más estratégicos y orientados a objetivos, lo que permite una adaptación a largo plazo mientras mantiene mejores relaciones con sus interlocutores. Nuestros resultados sugieren un avance en la integración de la ToM para la construcción de agentes LLM socialmente inteligentes.
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key
aspect of human social intelligence, yet, chatbots and LLM-based social agents
do not typically integrate it. In this work, we demonstrate that LLMs that
explicitly use ToM get better at dialogue, achieving goals more effectively.
After showing that simply prompting models to generate mental states between
dialogue turns already provides significant benefit, we further introduce
ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM
with dialogue lookahead to produce mental states that are maximally useful for
achieving dialogue goals. Experiments on the Sotopia interactive social
evaluation benchmark demonstrate the effectiveness of our method over a range
of baselines. Comprehensive analysis shows that ToMA exhibits more strategic,
goal-oriented reasoning behaviors, which enable long-horizon adaptation, while
maintaining better relationships with their partners. Our results suggest a
step forward in integrating ToM for building socially intelligent LLM agents.