ChatPaper.aiChatPaper

MetaMind: Modelando Pensamentos Sociais Humanos com Sistemas Multiagentes Metacognitivos

MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems

May 25, 2025
Autores: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI

Resumo

As interações sociais humanas dependem da capacidade de inferir intenções, emoções e crenças não expressas dos outros - uma habilidade cognitiva fundamentada no conceito psicológico de Teoria da Mente (ToM). Embora os grandes modelos de linguagem (LLMs) se destaquem em tarefas de compreensão semântica, eles têm dificuldade com a ambiguidade e a nuance contextual inerentes à comunicação humana. Para preencher essa lacuna, apresentamos o MetaMind, um framework multiagente inspirado em teorias psicológicas de metacognição, projetado para emular o raciocínio social semelhante ao humano. O MetaMind decompõe a compreensão social em três estágios colaborativos: (1) um Agente de Teoria da Mente gera hipóteses sobre os estados mentais do usuário (por exemplo, intenção, emoção), (2) um Agente de Domínio refina essas hipóteses usando normas culturais e restrições éticas, e (3) um Agente de Resposta gera respostas contextualmente apropriadas enquanto valida o alinhamento com a intenção inferida. Nosso framework alcança desempenho de ponta em três benchmarks desafiadores, com uma melhoria de 35,7% em cenários sociais do mundo real e um ganho de 6,2% no raciocínio de ToM. Notavelmente, ele permite que os LLMs atinjam o desempenho humano em tarefas-chave de ToM pela primeira vez. Estudos de ablação confirmam a necessidade de todos os componentes, que demonstram a capacidade do framework de equilibrar plausibilidade contextual, adequação social e adaptação ao usuário. Este trabalho avança os sistemas de IA em direção à inteligência social semelhante à humana, com aplicações em diálogo empático e interações culturalmente sensíveis. O código está disponível em https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken intentions, emotions, and beliefs-a cognitive skill grounded in the psychological concept of Theory of Mind (ToM). While large language models (LLMs) excel in semantic understanding tasks, they struggle with the ambiguity and contextual nuance inherent in human communication. To bridge this gap, we introduce MetaMind, a multi-agent framework inspired by psychological theories of metacognition, designed to emulate human-like social reasoning. MetaMind decomposes social understanding into three collaborative stages: (1) a Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent, emotion), (2) a Domain Agent refines these hypotheses using cultural norms and ethical constraints, and (3) a Response Agent generates contextually appropriate responses while validating alignment with inferred intent. Our framework achieves state-of-the-art performance across three challenging benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain in ToM reasoning. Notably, it enables LLMs to match human-level performance on key ToM tasks for the first time. Ablation studies confirm the necessity of all components, which showcase the framework's ability to balance contextual plausibility, social appropriateness, and user adaptation. This work advances AI systems toward human-like social intelligence, with applications in empathetic dialogue and culturally sensitive interactions. Code is available at https://github.com/XMZhangAI/MetaMind.
PDF244December 4, 2025