ChatPaper.aiChatPaper

MetaMind : Modélisation des pensées sociales humaines avec des systèmes multi-agents métacognitifs

MetaMind: Modeling Human Social Thoughts with Metacognitive Multi-Agent Systems

May 25, 2025
Auteurs: Xuanming Zhang, Yuxuan Chen, Min-Hsuan Yeh, Yixuan Li
cs.AI

Résumé

Les interactions sociales humaines dépendent de la capacité à inférer les intentions, émotions et croyances non exprimées d'autrui – une compétence cognitive ancrée dans le concept psychologique de la Théorie de l'Esprit (ToM). Bien que les grands modèles de langage (LLMs) excellent dans les tâches de compréhension sémantique, ils peinent à gérer l'ambiguïté et les nuances contextuelles inhérentes à la communication humaine. Pour combler cette lacune, nous présentons MetaMind, un cadre multi-agent inspiré des théories psychologiques de la métacognition, conçu pour imiter le raisonnement social humain. MetaMind décompose la compréhension sociale en trois étapes collaboratives : (1) un Agent de Théorie de l'Esprit génère des hypothèses sur les états mentaux de l'utilisateur (par exemple, intention, émotion), (2) un Agent de Domaine affine ces hypothèses en utilisant les normes culturelles et les contraintes éthiques, et (3) un Agent de Réponse génère des réponses contextuellement appropriées tout en validant leur alignement avec l'intention inférée. Notre cadre atteint des performances de pointe sur trois benchmarks exigeants, avec une amélioration de 35,7 % dans les scénarios sociaux réels et un gain de 6,2 % dans le raisonnement ToM. Notamment, il permet aux LLMs d'atteindre pour la première fois des performances équivalentes à celles des humains sur des tâches clés de ToM. Les études d'ablation confirment la nécessité de tous les composants, démontrant la capacité du cadre à équilibrer la plausibilité contextuelle, l'appropriation sociale et l'adaptation à l'utilisateur. Ce travail fait progresser les systèmes d'IA vers une intelligence sociale proche de celle des humains, avec des applications dans les dialogues empathiques et les interactions culturellement sensibles. Le code est disponible à l'adresse https://github.com/XMZhangAI/MetaMind.
English
Human social interactions depend on the ability to infer others' unspoken intentions, emotions, and beliefs-a cognitive skill grounded in the psychological concept of Theory of Mind (ToM). While large language models (LLMs) excel in semantic understanding tasks, they struggle with the ambiguity and contextual nuance inherent in human communication. To bridge this gap, we introduce MetaMind, a multi-agent framework inspired by psychological theories of metacognition, designed to emulate human-like social reasoning. MetaMind decomposes social understanding into three collaborative stages: (1) a Theory-of-Mind Agent generates hypotheses user mental states (e.g., intent, emotion), (2) a Domain Agent refines these hypotheses using cultural norms and ethical constraints, and (3) a Response Agent generates contextually appropriate responses while validating alignment with inferred intent. Our framework achieves state-of-the-art performance across three challenging benchmarks, with 35.7% improvement in real-world social scenarios and 6.2% gain in ToM reasoning. Notably, it enables LLMs to match human-level performance on key ToM tasks for the first time. Ablation studies confirm the necessity of all components, which showcase the framework's ability to balance contextual plausibility, social appropriateness, and user adaptation. This work advances AI systems toward human-like social intelligence, with applications in empathetic dialogue and culturally sensitive interactions. Code is available at https://github.com/XMZhangAI/MetaMind.

Summary

AI-Generated Summary

PDF244May 28, 2025