ChatPaper.aiChatPaper

MetaMind: Modelando Pensamientos Sociales Humanos con Sistemas Multiagente Metacognitivos

MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems

May 25, 2025
Autores: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI

Resumen

Las interacciones sociales humanas dependen de la capacidad de inferir las intenciones, emociones y creencias no expresadas de los demás, una habilidad cognitiva fundamentada en el concepto psicológico de la Teoría de la Mente (ToM, por sus siglas en inglés). Si bien los modelos de lenguaje de gran escala (LLMs) sobresalen en tareas de comprensión semántica, tienen dificultades con la ambigüedad y los matices contextuales inherentes a la comunicación humana. Para cerrar esta brecha, presentamos MetaMind, un marco de trabajo multiagente inspirado en teorías psicológicas de la metacognición, diseñado para emular el razonamiento social similar al humano. MetaMind descompone la comprensión social en tres etapas colaborativas: (1) un Agente de Teoría de la Mente genera hipótesis sobre los estados mentales del usuario (por ejemplo, intención, emoción), (2) un Agente de Dominio refina estas hipótesis utilizando normas culturales y restricciones éticas, y (3) un Agente de Respuesta genera respuestas contextualmente apropiadas mientras valida la alineación con la intención inferida. Nuestro marco logra un rendimiento de vanguardia en tres puntos de referencia desafiantes, con una mejora del 35.7% en escenarios sociales del mundo real y un aumento del 6.2% en el razonamiento de ToM. Notablemente, permite que los LLMs igualen el rendimiento humano en tareas clave de ToM por primera vez. Los estudios de ablación confirman la necesidad de todos los componentes, demostrando la capacidad del marco para equilibrar la plausibilidad contextual, la adecuación social y la adaptación al usuario. Este trabajo avanza los sistemas de IA hacia una inteligencia social similar a la humana, con aplicaciones en diálogos empáticos e interacciones culturalmente sensibles. El código está disponible en https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken intentions, emotions, and beliefs-a cognitive skill grounded in the psychological concept of Theory of Mind (ToM). While large language models (LLMs) excel in semantic understanding tasks, they struggle with the ambiguity and contextual nuance inherent in human communication. To bridge this gap, we introduce MetaMind, a multi-agent framework inspired by psychological theories of metacognition, designed to emulate human-like social reasoning. MetaMind decomposes social understanding into three collaborative stages: (1) a Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent, emotion), (2) a Domain Agent refines these hypotheses using cultural norms and ethical constraints, and (3) a Response Agent generates contextually appropriate responses while validating alignment with inferred intent. Our framework achieves state-of-the-art performance across three challenging benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain in ToM reasoning. Notably, it enables LLMs to match human-level performance on key ToM tasks for the first time. Ablation studies confirm the necessity of all components, which showcase the framework's ability to balance contextual plausibility, social appropriateness, and user adaptation. This work advances AI systems toward human-like social intelligence, with applications in empathetic dialogue and culturally sensitive interactions. Code is available at https://github.com/XMZhangAI/MetaMind.

Summary

AI-Generated Summary

PDF244May 28, 2025