ChatPaper.aiChatPaper

Infundindo Teoria da Mente em Agentes de LLM Socialmente Inteligentes

Infusing Theory of Mind into Socially Intelligent LLM Agents

September 26, 2025
Autores: EunJeong Hwang, Yuwei Yin, Giuseppe Carenini, Peter West, Vered Shwartz
cs.AI

Resumo

A Teoria da Mente (ToM) - a compreensão dos estados mentais dos outros - é um aspecto fundamental da inteligência social humana, mas chatbots e agentes sociais baseados em LLMs (Large Language Models) normalmente não a integram. Neste trabalho, demonstramos que LLMs que utilizam explicitamente a ToM se tornam mais eficazes em diálogos, alcançando objetivos com maior sucesso. Após mostrar que simplesmente instruir os modelos a gerar estados mentais entre turnos de diálogo já traz benefícios significativos, introduzimos ainda o ToMAgent (ToMA), um agente de diálogo focado na ToM. O ToMA é treinado combinando a ToM com a antecipação de diálogo para produzir estados mentais que sejam maximamente úteis para alcançar os objetivos do diálogo. Experimentos no benchmark de avaliação social interativa Sotopia demonstram a eficácia do nosso método em comparação com uma variedade de baselines. Análises detalhadas mostram que o ToMA exibe comportamentos de raciocínio mais estratégicos e orientados a objetivos, o que permite adaptação de longo prazo, ao mesmo tempo que mantém melhores relações com seus parceiros. Nossos resultados sugerem um avanço na integração da ToM para a construção de agentes LLM socialmente inteligentes.
English
Theory of Mind (ToM)-an understanding of the mental states of others-is a key aspect of human social intelligence, yet, chatbots and LLM-based social agents do not typically integrate it. In this work, we demonstrate that LLMs that explicitly use ToM get better at dialogue, achieving goals more effectively. After showing that simply prompting models to generate mental states between dialogue turns already provides significant benefit, we further introduce ToMAgent (ToMA), a ToM-focused dialogue agent. ToMA is trained by pairing ToM with dialogue lookahead to produce mental states that are maximally useful for achieving dialogue goals. Experiments on the Sotopia interactive social evaluation benchmark demonstrate the effectiveness of our method over a range of baselines. Comprehensive analysis shows that ToMA exhibits more strategic, goal-oriented reasoning behaviors, which enable long-horizon adaptation, while maintaining better relationships with their partners. Our results suggest a step forward in integrating ToM for building socially intelligent LLM agents.
PDF52October 2, 2025